综合介绍
FlowDown-App 是一个轻量、高效的 AI 对话客户端,由开发者团队使用 Swift 和 UIKit 开发,旨在为用户提供快速、顺畅的智能对话体验。该应用分为标准版(FlowDown)和社区版(FlowDown Community)。标准版通过 App Store 提供下载,内置免费云端模型并支持更多高级功能;社区版即将开源,源代码将在 GitHub 上发布,用户可免费获取并自定义。FlowDown 支持所有 OpenAI 兼容的服务接口,用户可接入自己的大语言模型(LLM),并以隐私保护为核心设计理念,确保数据安全。其最大亮点是极致快速的文本渲染,带来无缝的对话体验。

FlowDown macOS版界面

FlowDown IOS版界面
功能列表
- 极致快速文本渲染:对话文本几乎无延迟显示,提供流畅体验。
- Markdown 支持:输出富文本格式,便于阅读和整理。
- 通用兼容性:支持所有 OpenAI 兼容的服务提供商。
- 隐私保护设计:默认不收集用户数据,对话留在本地。
- 自动聊天标题:智能生成对话标题,提升管理效率。
- 自带 LLM 支持:标准版支持离线 LLM(基于 MLX)和视觉 LLM。
- 附件上传:标准版支持上传文件与 AI 交互。
- 网页搜索:标准版内置搜索功能,增强信息获取能力。
使用帮助
安装流程
FlowDown 提供两种获取方式:通过 App Store 下载标准版,或从 GitHub 获取社区版源代码。以下是详细安装步骤:
标准版(FlowDown)
- 系统要求:
- iOS 16.0 或更高版本(支持 iPhone 和 iPad)。
- macOS 13.0 或更高版本。
- 下载应用:
- 打开 App Store,搜索 “FlowDown”。
- 点击“获取”按钮,完成下载和安装。
- 启动应用:
- 安装完成后,点击应用图标打开,首次使用会自动配置免费云端模型。
社区版(FlowDown Community)
- 系统要求:同标准版,具体依赖见 GitHub 说明。
- 下载源代码:
- 访问 https://github.com/Lakr233/FlowDown-App。
- 点击 “Code” 按钮,选择 “Download ZIP” 或使用 Git 命令:
git clone https://github.com/Lakr233/FlowDown-App.git
- 环境准备:
- 确保安装 Xcode(用于 Swift 开发)。
- 打开终端,进入项目目录,运行依赖安装(若有):
pod install # 若使用 CocoaPods
- 构建与运行:
- 用 Xcode 打开
.xcodeproj
文件。 - 选择目标设备(模拟器或真机),点击 “Run” 按钮编译并运行。
- 用 Xcode 打开
主要功能操作流程
极致快速文本渲染与 Markdown 支持
- 启动应用:打开 FlowDown,进入主界面。
- 输入问题:在对话框输入文本,例如“帮我写一篇 Markdown 格式的笔记”。
- 获取回复:点击发送,AI 返回的 Markdown 格式文本将以极快速度渲染,标题、列表等清晰呈现。
- 调整显示:长按文本区域可调整字体大小或复制内容。
自定义 LLM 服务接入
- 进入设置:
- 点击右上角齿轮图标,进入设置页面。
- 添加服务:
- 选择“连接 AI 服务”,输入 OpenAI 兼容的 API 密钥和端点,例如:
API Key: sk-xxxxxxxxxxxxxxxxxxxx Endpoint: https://api.openai.com/v1
- 选择“连接 AI 服务”,输入 OpenAI 兼容的 API 密钥和端点,例如:
- 测试连接:
- 点击“测试”,确认服务可用后保存。
- 切换模型:
- 在对话界面选择新添加的服务,开始使用。
自动聊天标题
- 开始新对话:
- 点击“新建对话”按钮,输入问题。
- 生成标题:
- 系统根据输入内容自动生成标题,如“Markdown 笔记编写”。
- 管理对话:
- 在左侧列表查看所有对话,点击标题快速切换。
特色功能操作详解
极致快速文本渲染
- 操作体验:输入问题后,回复文本几乎瞬时显示,无需等待加载。
- 使用场景:适合需要实时交互的用户,例如快速记录灵感或处理长篇对话。
- 优化调整:设置中可调整渲染优先级,确保低配设备也能流畅运行。
隐私保护设计
- 本地存储:对话数据默认保存在设备上,不上传云端。
- 服务选择:用户可手动指定 LLM 服务,避免数据泄露。
- 查看隐私政策:设置页面提供链接,详细说明数据处理方式。
标准版独有功能:离线 LLM 与附件上传
- 离线 LLM(基于 MLX):
- 在设置中选择“本地模型”。
- 下载支持的 MLX 模型文件(需参考官方文档)。
- 导入模型后即可离线使用,无需网络。
- 附件上传:
- 点击对话框旁的“+”按钮。
- 选择文件(支持图片、PDF 等),上传后输入指令,如“分析这张图片”。
- AI 返回分析结果,显示在对话区域。
网页搜索(标准版)
- 激活搜索:
- 在对话框输入问题后,点击“搜索”图标。
- 获取结果:
- 系统返回网页信息,整合至 AI 回复中。
- 优化体验:
- 可在设置中调整搜索优先级或关闭此功能。
使用建议
- 网络环境:使用云端模型时保持网络稳定。
- 硬件要求:离线 LLM 需较高性能设备,建议至少 8GB 内存。
- 查阅文档:遇到问题可访问 https://apps.qaq.wiki/docs/flowdown/ 获取官方指南。