AI个人学习
和实操指南
豆包Marscode1

FlowDown(浮望):iOS/macOS下体验流畅的AI客户端

综合介绍

FlowDown-App 是一个轻量、高效的 AI 对话客户端,由开发者团队使用 Swift 和 UIKit 开发,旨在为用户提供快速、顺畅的智能对话体验。该应用分为标准版(FlowDown)和社区版(FlowDown Community)。标准版通过 App Store 提供下载,内置免费云端模型并支持更多高级功能;社区版即将开源,源代码将在 GitHub 上发布,用户可免费获取并自定义。FlowDown 支持所有 OpenAI 兼容的服务接口,用户可接入自己的大语言模型(LLM),并以隐私保护为核心设计理念,确保数据安全。其最大亮点是极致快速的文本渲染,带来无缝的对话体验。

FlowDown(浮望):iOS/macOS体验流畅的 AI 客户端-1

FlowDown macOS版界面


 

FlowDown(浮望):iOS/macOS体验流畅的 AI 客户端-1

FlowDown IOS版界面

 

功能列表

  • 极致快速文本渲染:对话文本几乎无延迟显示,提供流畅体验。
  • Markdown 支持:输出富文本格式,便于阅读和整理。
  • 通用兼容性:支持所有 OpenAI 兼容的服务提供商。
  • 隐私保护设计:默认不收集用户数据,对话留在本地。
  • 自动聊天标题:智能生成对话标题,提升管理效率。
  • 自带 LLM 支持:标准版支持离线 LLM(基于 MLX)和视觉 LLM。
  • 附件上传:标准版支持上传文件与 AI 交互。
  • 网页搜索:标准版内置搜索功能,增强信息获取能力。

 

使用帮助

安装流程

FlowDown 提供两种获取方式:通过 App Store 下载标准版,或从 GitHub 获取社区版源代码。以下是详细安装步骤:

标准版(FlowDown)

  1. 系统要求
    • iOS 16.0 或更高版本(支持 iPhone 和 iPad)。
    • macOS 13.0 或更高版本。
  2. 下载应用
    • 打开 App Store,搜索 “FlowDown”。
    • 点击“获取”按钮,完成下载和安装。
  3. 启动应用
    • 安装完成后,点击应用图标打开,首次使用会自动配置免费云端模型。

社区版(FlowDown Community)

  1. 系统要求:同标准版,具体依赖见 GitHub 说明。
  2. 下载源代码
    • 访问 https://github.com/Lakr233/FlowDown-App。
    • 点击 “Code” 按钮,选择 “Download ZIP” 或使用 Git 命令:
      git clone https://github.com/Lakr233/FlowDown-App.git
      
  3. 环境准备
    • 确保安装 Xcode(用于 Swift 开发)。
    • 打开终端,进入项目目录,运行依赖安装(若有):
      pod install  # 若使用 CocoaPods
      
  4. 构建与运行
    • 用 Xcode 打开 .xcodeproj 文件。
    • 选择目标设备(模拟器或真机),点击 “Run” 按钮编译并运行。

主要功能操作流程

极致快速文本渲染与 Markdown 支持

  1. 启动应用:打开 FlowDown,进入主界面。
  2. 输入问题:在对话框输入文本,例如“帮我写一篇 Markdown 格式的笔记”。
  3. 获取回复:点击发送,AI 返回的 Markdown 格式文本将以极快速度渲染,标题、列表等清晰呈现。
  4. 调整显示:长按文本区域可调整字体大小或复制内容。

自定义 LLM 服务接入

  1. 进入设置
    • 点击右上角齿轮图标,进入设置页面。
  2. 添加服务
    • 选择“连接 AI 服务”,输入 OpenAI 兼容的 API 密钥和端点,例如:
      API Key: sk-xxxxxxxxxxxxxxxxxxxx
      Endpoint: https://api.openai.com/v1
      
  3. 测试连接
    • 点击“测试”,确认服务可用后保存。
  4. 切换模型
    • 在对话界面选择新添加的服务,开始使用。

自动聊天标题

  1. 开始新对话
    • 点击“新建对话”按钮,输入问题。
  2. 生成标题
    • 系统根据输入内容自动生成标题,如“Markdown 笔记编写”。
  3. 管理对话
    • 在左侧列表查看所有对话,点击标题快速切换。

特色功能操作详解

极致快速文本渲染

  • 操作体验:输入问题后,回复文本几乎瞬时显示,无需等待加载。
  • 使用场景:适合需要实时交互的用户,例如快速记录灵感或处理长篇对话。
  • 优化调整:设置中可调整渲染优先级,确保低配设备也能流畅运行。

隐私保护设计

  • 本地存储:对话数据默认保存在设备上,不上传云端。
  • 服务选择:用户可手动指定 LLM 服务,避免数据泄露。
  • 查看隐私政策:设置页面提供链接,详细说明数据处理方式。

标准版独有功能:离线 LLM 与附件上传

  • 离线 LLM(基于 MLX)
    1. 在设置中选择“本地模型”。
    2. 下载支持的 MLX 模型文件(需参考官方文档)。
    3. 导入模型后即可离线使用,无需网络。
  • 附件上传
    1. 点击对话框旁的“+”按钮。
    2. 选择文件(支持图片、PDF 等),上传后输入指令,如“分析这张图片”。
    3. AI 返回分析结果,显示在对话区域。

网页搜索(标准版)

  1. 激活搜索
    • 在对话框输入问题后,点击“搜索”图标。
  2. 获取结果
    • 系统返回网页信息,整合至 AI 回复中。
  3. 优化体验
    • 可在设置中调整搜索优先级或关闭此功能。

使用建议

  • 网络环境:使用云端模型时保持网络稳定。
  • 硬件要求:离线 LLM 需较高性能设备,建议至少 8GB 内存。
  • 查阅文档:遇到问题可访问 https://apps.qaq.wiki/docs/flowdown/ 获取官方指南。
未经允许不得转载:首席AI分享圈 » FlowDown(浮望):iOS/macOS下体验流畅的AI客户端
zh_CN简体中文