AI个人学习
和实操指南
豆包Marscode1

kun-lab:基于 Ollama 的本地轻量AI对话客户端

综合介绍

kun-lab 是一款基于 Ollama 的开源 AI 对话应用,专注于提供轻量、快速的本地化智能对话体验。它支持 Windows、macOS 和 Linux(目前以 Windows 为主),无需复杂配置即可使用。用户可以与 AI 进行流畅的多轮对话,解析文档,识别图片,甚至联网搜索答案。所有数据存储在本地,保障隐私安全。kun-lab 还提供代码渲染、提示词模板和多语言界面,适合开发者、学生或需要高效 AI 工具的用户。

kun-lab:基于 Ollama 的本地轻量AI对话客户端-1


 

功能列表

  • 智能对话:支持多轮实时对话,AI 响应流畅,可联网搜索更全面答案。
  • 文档解析:上传 PDF、DOC、PPT、TXT 文件,AI 理解内容并回答问题。
  • 图片识别:识别 JPG、PNG 图片,提取文字或分析场景,支持多轮对话。
  • 模型管理:轻松切换 Ollama 或 Hugging Face 模型,支持 GGUF 和 safetensors 格式。
  • 提示词模板:内置模板并支持自定义,方便激发 AI 创造力。
  • 代码渲染:自动高亮多种编程语言代码,展示清晰。
  • 快速笔记:支持 Markdown 语法,实时预览并一键导出。
  • 多用户支持:允许多人同时登录,各自拥有独立对话空间。
  • 多语言界面:支持中文、英文等语言,操作更友好。

 

使用帮助

kun-lab 是一款功能丰富的 AI 对话工具,基于 Ollama 运行,操作简单,适合本地使用。以下详细介绍安装流程、核心功能操作及上手步骤,帮助用户快速掌握。

安装 kun-lab

kun-lab 提供桌面应用和源码部署两种方式。目前桌面应用仅支持 Windows,源码部署支持 Windows、macOS 和 Linux。

方式 1:桌面应用(推荐)

  1. 访问 GitHub 发布页面(https://github.com/bahamutww/kun-lab/releases)。
  2. 下载适合你的系统安装包:
    • Windows:.exe 文件。
    • macOS:.dmg 文件(未来支持)。
    • Linux:.AppImage 或 .deb 文件(未来支持)。
  3. 双击安装包,按提示完成安装。
  4. 安装后,点击桌面图标运行 kun-lab,无需额外配置。
  5. 启动后,选择语言(默认支持中文),进入主界面。

方式 2:源码部署

如果你想自定义或开发,需安装环境并运行代码。以下是详细步骤:

  1. 准备环境
    • 确保系统为 Windows、macOS 或 Linux。
    • 安装 Python 3.10 或更高版本(下载:https://www.python.org)。
    • 安装 Node.js 20.16.0 或更高版本(下载:https://nodejs.org)。
    • 安装 Ollama 并启动服务(参考:https://ollama.com)。
  2. 克隆仓库
    git clone https://github.com/bahamutww/kun-lab.git
    cd kun-lab
    
  3. 创建虚拟环境
    python -m venv venv
    .\venv\Scripts\activate  # Windows
    # source venv/bin/activate  # macOS/Linux
    
  4. 安装后端依赖
    cd backend
    pip install -r requirements.txt
    
  5. 安装前端依赖
    cd frontend
    npm install
    
  6. 配置环境变量
    cp .env.example .env
    
    • 用文本编辑器打开 .env 文件,按需修改配置(如端口号)。
  7. 启动应用
    python run_dev.py
    
  8. 打开浏览器,访问 http://localhost:5173,开始使用。

核心功能操作

以下介绍 kun-lab 的主要功能及具体操作流程,确保用户能轻松上手。

1. 智能 AI 对话

  • 开始对话
    1. 打开 kun-lab,点击“聊天对话”或“新对话”。
    2. 在模型列表选择一个模型(默认有 Ollama 提供的模型)。
    3. 输入问题,AI 会实时响应。
  • 联网搜索
    • 若问题需要最新信息,勾选“开启网络搜索”。
    • AI 会结合网页数据回答,答案更全面。
  • 管理历史记录
    • 对话自动保存,点击侧边栏“历史记录”查看。
    • 可删除或导出某次对话。
  • 代码支持
    • 输入代码相关问题,AI 以高亮格式展示代码。
    • 支持 Python、JavaScript 等多种语言。

2. 文档解析

  • 上传文档
    1. 点击“文档对话”页面。
    2. 点击“上传”按钮,选择 PDF、DOC、PPT 或 TXT 文件。
    3. 文件解析后,AI 显示文档概要。
  • 提问
    • 在对话框输入与文档相关的问题。
    • AI 根据内容回答,支持上下文关联。
  • 检索内容
    • 输入关键词,AI 快速定位文档中的相关部分。
    • 点击结果跳转到原文位置。

3. 图片识别

  • 上传图片
    1. 进入“图片对话”页面。
    2. 点击“上传图片”,选择 JPG、PNG 或 JPEG 文件。
    3. AI 自动识别场景或提取文字。
  • 多轮对话
    • 基于图片提问,如“这个图片里有什么?”。
    • AI 回答后,可继续深入提问。
  • OCR 功能
    • 若图片含文字,AI 会提取并显示。
    • 可复制文字或基于文字提问。

4. 模型管理

  • 拉取模型
    1. 进入“模型库”页面。
    2. 点击“拉取模型”。
    3. 输入命令,如 ollama run qwq:32b 或 ollama run hf.co/Qwen/QwQ-32B-GGUF:Q2_K
    4. 等待下载完成,模型即可使用。
  • 切换模型
    • 在对话页面,点击模型下拉菜单。
    • 选择已下载的模型,立即切换。
  • 自定义模型
    1. 点击“自定义”按钮。
    2. 输入模型名称和系统提示词(如“扮演数学老师”)。
    3. 选择基础模型,点击“创建”。

5. 提示词管理

  • 使用模板
    1. 打开“提示词”页面。
    2. 浏览内置模板,如“写文章大纲”或“代码调试”。
    3. 点击模板,直接应用到对话。
  • 自定义提示词
    • 点击“新建提示词”。
    • 输入名称和内容,保存后可分类管理。
  • 快速应用
    • 在对话时,选择提示词,AI 按设定响应。

6. 快速笔记

  • 创建笔记
    1. 点击“笔记”页面。
    2. 输入 Markdown 格式内容,如标题、列表或代码。
    3. 右侧实时预览效果。
  • 导出笔记
    • 点击“导出”按钮,保存为 .md 文件。
    • 可分享或导入其他工具。

注意事项

  • 确保 Ollama 服务运行,否则 AI 功能不可用。
  • 首次拉取模型可能需要时间,建议检查网络连接。
  • 本地存储数据占用空间较大,定期清理历史记录。
  • 若遇到问题,查看 GitHub 的 issues 页面或提交反馈。

通过以上步骤,用户可以轻松安装并使用 kun-lab 的各项功能。无论是对话、文档解析还是图片分析,操作都直观便捷。

 

应用场景

  1. 个人学习助手
    学生可以用 kun-lab 解析课件或教材,提问疑点,AI 会详细解答。上传数学讲义,AI 可一步步解释公式。
  2. 开发者工具
    程序员可以用 kun-lab 调试代码或学习新语言。输入代码片段,AI 提供优化建议,并高亮展示。
  3. 文档整理
    职场人士可以用文档解析功能快速总结报告。上传长篇 PPT,AI 提取关键点,生成简洁笔记。
  4. 创意探索
    创作者可以用提示词模板生成故事或设计灵感。上传草图,AI 分析并提出改进建议。

 

QA

  1. kun-lab 需要联网吗?
    核心功能本地运行,无需联网。联网搜索功能可选,需手动开启。
  2. 支持哪些文档格式?
    支持 PDF、DOC、PPT、TXT 文件,未来可能扩展更多格式。
  3. 如何添加新模型?
    在“模型库”页面输入 ollama run 命令,拉取 Ollama 或 Hugging Face 模型。
  4. 数据安全吗?
    所有数据存储在本地,不上传云端,确保隐私安全。
未经允许不得转载:首席AI分享圈 » kun-lab:基于 Ollama 的本地轻量AI对话客户端
zh_CN简体中文