はじめに
FlowDown-Appは、SwiftとUIKitを使用して開発された軽量で効率的なAI対話クライアントで、高速でスムーズなインテリジェント対話体験をユーザーに提供することを目的としています。このアプリは、標準バージョン(FlowDown)とコミュニティバージョン(FlowDown Community)に分かれています。FlowDownは、すべてのOpenAI互換サービスインターフェースをサポートし、ユーザーが独自の大規模言語モデル(LLM)にアクセスすることを可能にし、データセキュリティを確保するためにプライバシーを考慮して設計されています。データの安全性を確保します。FlowDownのハイライトは、シームレスな対話体験のための非常に高速なテキストレンダリングです。
FlowDown macOSインターフェース
FlowDown IOSインターフェース
機能一覧
- 非常に高速なテキストレンダリングダイアログテキストはほとんど遅延なく表示され、スムーズな体験を提供します。
- マークダウンのサポート読みやすく整理しやすいリッチテキスト形式で出力。
- ユニバーサル対応すべてのOpenAI準拠のサービスプロバイダをサポートしています。
- プライバシー・バイ・デザインユーザーデータはデフォルトでは収集されず、対話はローカルに留まります。
- オートチャットヘッダー対話タイトルをインテリジェントに生成し、管理効率を向上させます。
- LLMサポート付き標準バージョンはオフラインLLM(MLXベース)とビジュアルLLMをサポート。
- 添付ファイルのアップロード標準バージョンは、AIと対話するためのファイルのアップロードをサポートしています。
- ウェブ検索スタンダード版には、情報へのアクセスを向上させる検索機能が組み込まれています。
ヘルプの使用
設置プロセス
FlowDownは、App Storeから通常版をダウンロードする方法と、GitHubからコミュニティ版のソースコードを入手する方法があります。詳しいインストール手順は以下の通りです:
スタンダード(FlowDown)
- システム要件::
- iOS 16.0以降(iPhoneおよびiPadに対応)。
- macOS 13.0以降。
- ダウンロードアプリ::
- App Storeを開き、「FlowDown」を検索します。
- Get "ボタンをクリックして、ダウンロードとインストールを完了します。
- アプリケーションを起動する::
- インストール後、アプリのアイコンをクリックして開くと、無料のクラウドモデルが自動的に初回設定されます。
コミュニティ版(FlowDownコミュニティ)
- システム要件依存関係はGitHubを参照。
- ソースコードのダウンロード::
- https://github.com/Lakr233/FlowDown-App。
- Code "ボタンをクリックし、"Download ZIP "を選択するか、Gitコマンドを使用する:
git clone https://github.com/Lakr233/FlowDown-App.git
- 環境準備::
- Xcode(Swift開発用)がインストールされていることを確認する。
- ターミナルを開き、プロジェクト・ディレクトリに移動し、依存関係のインストール(もしあれば)を実行する:
CocoaPodsを使用している場合は、#をインストールする。
- ビルド&ラン::
- Xcodeで開く
.xcodeproj
ドキュメンテーション - ターゲット・デバイス(エミュレータまたは実機)を選択し、"Run "ボタンをクリックしてコンパイルと実行を行います。
- Xcodeで開く
主な機能
Markdownをサポートした非常に高速なテキストレンダリング
- アプリケーションを起動するFlowDownを開き、メイン画面に移動します。
- 入力の問題ダイアログボックスにテキストを入力する。
- 返信を受け取る送信をクリックすると、AIが返したMarkdown形式のテキストが猛スピードでレンダリングされ、見出しやリストなどが明確に表示される。
- ディスプレイの調整テキストエリアを長押しすると、フォントサイズの調整や内容のコピーができます。
カスタムLLMサービス・アクセス
- 設定::
- 右上の歯車アイコンをクリックし、設定ページに入ります。
- サービス追加::
- Connect AI Servicesを選択し、OpenAI互換のAPIキーとエンドポイントを入力する:
APIキー: sk-xxxxxxxxxxxxxxxxxxx エンドポイント: https://api.openai.com/v1
- Connect AI Servicesを選択し、OpenAI互換のAPIキーとエンドポイントを入力する:
- テスト接続::
- Test "をクリックしてサービスが利用可能であることを確認し、保存する。
- モデルの切り替え::
- ダイアログ画面で新しく追加したサービスを選択して開始します。
オートチャットヘッダー
- 新たな対話の開始::
- 新規ダイアログ」ボタンをクリックし、質問を入力します。
- タイトルの生成::
- 入力された内容に基づいて、「マークダウン・ノートの書き方」のようなタイトルが自動的に生成される。
- 経営陣との対話::
- 左側のリストですべてのダイアログを表示し、タイトルをクリックすると、ダイアログをすばやく切り替えることができます。
注目の機能
非常に高速なテキストレンダリング
- オペレーション経験質問入力後、読み込みを待つことなく、ほぼ瞬時に回答テキストが表示されます。
- 使用シナリオインスピレーションを素早くメモしたり、長い会話に取り組むなど、リアルタイムのインタラクションを必要とするユーザーに最適です。
- 最適化調整レンダリングの優先順位を設定で調整することで、低性能なデバイスでもスムーズな動作を実現します。
プライバシー・バイ・デザイン
- ローカルストレージ対話データはデフォルトでデバイスに保存され、クラウドにはアップロードされません。
- サービスオプションLLMサービスを手動で指定することで、データ漏洩を防ぐことができます。
- プライバシーポリシー設定ページには、データの処理方法に関する詳細な説明へのリンクがあります。
スタンダード版限定機能:オフラインLLMと添付ファイルのアップロード
- オフラインLLM(MLXに基づく)::
- 設定で「ローカルモデル」を選択する。
- サポートされているMLXモデルファイルをダウンロードする(公式ドキュメントが必要です)。
- モデルをインポートしてオフラインで使用できます。
- 添付ファイルのアップロード::
- ダイアログボックスの横にある「+」ボタンをクリックする。
- ファイル(画像、PDFなど)を選択してアップロードし、「この画像を分析する」などのコマンドを入力する。
- AIは分析結果を返し、ダイアログエリアに表示される。
ウェブ検索(通常版)
- 検索を有効にする::
- ダイアログボックスに質問を入力した後、「検索」アイコンをクリックしてください。
- 結果を出す::
- システムは、AI応答に統合されたウェブページ情報を返す。
- エクスペリエンスの最適化::
- 検索の優先順位は調整でき、設定でこの機能をオフにすることもできる。
使用上の推奨事項
- ネットワーク環境クラウドベースのモデルを使用する際のネットワークの安定性の維持。
- ハードウェア要件オフラインLLMは高性能のデバイスを必要とし、少なくとも8GBのRAMを推奨します。
- 文書へのアクセス問題が発生した場合は、https://apps.qaq.wiki/docs/flowdown/ で公式ガイドをご覧ください。