kun-lab: собственный легкий диалоговый клиент ИИ, основанный на Ollama

Общее введение

kun-lab - это программа, основанная на Оллама это диалоговое приложение с открытым исходным кодом, ориентированное на создание легкого, быстрого, локализованного интеллектуального диалога. Оно поддерживает Windows, macOS и Linux (в настоящее время основное внимание уделяется Windows) и не требует сложной настройки для использования. Пользователи могут вести плавные многораундовые диалоги с ИИ, разбирать документы, идентифицировать изображения и даже искать ответы в Интернете. Все данные хранятся локально для обеспечения конфиденциальности и безопасности. kun-lab также предлагает рендеринг кода, шаблоны подсказок и многоязычный интерфейс для разработчиков, студентов и тех, кому нужен эффективный инструмент ИИ.

kun-lab:基于 Ollama 的本地轻量AI对话客户端

 

Список функций

  • интеллектуальный диалог: Поддерживает несколько раундов диалога в реальном времени, плавный ответ ИИ и сетевой поиск для получения более полных ответов.
  • разрешение документа: Загрузите файлы PDF, DOC, PPT, TXT, AI Поймите содержание и ответьте на вопросы.
  • распознавание образов: Распознавание изображений JPG, PNG, извлечение текста или анализ сцен, поддержка многораундового диалога.
  • управление моделями: Легкое переключение между моделями Ollama или Hugging Face, поддержка форматов GGUF и safetensors.
  • Шаблоны слов для кия: Встроенные шаблоны и поддержка персонализации позволяют легко вдохновить творческий потенциал AI.
  • Рендеринг кода: Автоматическое выделение нескольких кодов языков программирования для наглядного представления.
  • Краткие заметки: Поддержка синтаксиса Markdown, предварительный просмотр в реальном времени и экспорт одним щелчком мыши.
  • многопользовательская поддержка: Позволяет нескольким людям входить в систему одновременно, каждый из которых имеет свое отдельное пространство для диалога.
  • многоязычный интерфейс: Поддержка китайского, английского и других языков, более дружелюбная работа.

 

Использование помощи

kun-lab - это многофункциональный диалоговый инструмент искусственного интеллекта, работающий на Ollama, простой в управлении и подходящий для локального использования. Ниже приводится подробное описание процесса установки, основных функций и шагов по началу работы, чтобы помочь пользователям быстро освоить его.

Установите kun-lab

kun-lab предоставляет как настольное приложение, так и развертывание исходного кода. В настоящее время настольное приложение поддерживает только Windows, а развертывание исходного кода - Windows, macOS и Linux.

Способ 1: настольное приложение (рекомендуется)

  1. Посетите страницу выпуска на GitHub (https://github.com/bahamutww/kun-lab/releases).
  2. Загрузите соответствующий пакет установки для вашей системы:
    • Окна:.exe Документация.
    • macOS:.dmg Документация (будущая поддержка).
    • Linux:.AppImage возможно .deb Документация (будущая поддержка).
  3. Дважды щелкните установочный пакет и следуйте подсказкам, чтобы завершить установку.
  4. После установки щелкните по значку на рабочем столе, чтобы запустить kun-lab без дополнительной настройки.
  5. После запуска выберите язык (по умолчанию поддерживается китайский) и войдите в основной интерфейс.

Подход 2: развертывание исходного кода

Если вы хотите настроить или разработать, вам нужно установить среду и запустить код. Ниже приведены подробные шаги:

  1. Подготовка среды::
    • Убедитесь, что система работает под управлением Windows, macOS или Linux.
    • Установите Python 3.10 или более позднюю версию (скачать: https://www.python.org).
    • Установите Node.js 20.16.0 или более позднюю версию (скачать: https://nodejs.org).
    • Установите Ollama и запустите службу (ссылка: https://ollama.com).
  2. склад клонов::
    git clone https://github.com/bahamutww/kun-lab.git
    cd kun-lab
    
  3. Создание виртуальной среды::
    python -m venv venv
    .\venv\Scripts\activate  # Windows
    # source venv/bin/activate  # macOS/Linux
    
  4. Установка зависимостей внутренней части::
    cd backend
    pip install -r requirements.txt
    
  5. Установка зависимостей фронтэнда::
    cd frontend
    npm install
    
  6. Настройка переменных среды::
    cp .env.example .env
    
    • Откройте в текстовом редакторе .env файл, измените конфигурацию (например, номер порта), если это необходимо.
  7. запустить приложение::
    python run_dev.py
    
  8. Откройте браузер и посетите сайт http://localhost:5173, чтобы начать работу.

Основная функция Эксплуатация

Ниже описаны основные функции kun-lab и конкретные процедуры работы, чтобы пользователи могли легко приступить к работе.

1. Интеллектуальный диалог ИИ

  • Начало диалога::
    1. Откройте kun-lab и нажмите на "Диалог в чате" или "Новый диалог".
    2. Выберите модель в списке моделей (по умолчанию это модели, предоставленные компанией Ollama).
    3. Задайте вопрос, и искусственный интеллект ответит на него в режиме реального времени.
  • Поиск в Интернете::
    • Если вопрос требует актуальной информации, установите флажок "Включить веб-поиск".
    • ИИ объединит данные веб-страниц и даст более полный ответ.
  • Управление историей::
    • Разговоры автоматически сохраняются, и их можно просмотреть, нажав кнопку "История" на боковой панели.
    • Диалог можно удалить или экспортировать.
  • Поддержка кода::
    • Введите вопрос, связанный с кодом, и AI отобразит код в выделенном формате.
    • Поддержка Python, JavaScript и других языков.

2. Разбор документов

  • Загрузить документ::
    1. Перейдите на экран Диалоги документов.
    2. Нажмите кнопку "Загрузить" и выберите файл в формате PDF, DOC, PPT или TXT.
    3. После разбора документа ИИ отображает его краткое содержание.
  • задавать вопросы::
    • Введите в диалоговое окно вопрос, связанный с документом.
    • ИИ отвечает на основе контента и поддерживает контекстуализацию.
  • Содержание поиска::
    • Введите ключевое слово, и AI быстро найдет соответствующую часть документа.
    • Щелкните по результатам, чтобы перейти к местоположению оригинальной статьи.

3. распознавание образов

  • Загрузить фотографию::
    1. Перейдите на страницу "Диалог с картинкой".
    2. Нажмите "Загрузить изображение" и выберите файл в формате JPG, PNG или JPEG.
    3. ИИ автоматически распознает сцены или извлекает текст.
  • многоуровневый диалог::
    • Задавайте вопросы по картинкам, например, "Что на этой картинке?". .
    • После того как ИИ ответил, вы можете продолжить задавать более глубокие вопросы.
  • Функции OCR::
    • Если изображение содержит текст, AI извлечет и отобразит его.
    • Можно копировать текст или задавать вопросы по тексту.

4. управление моделями

  • модель тяги::
    1. Перейдите на страницу "Библиотека моделей".
    2. Нажмите на кнопку "Вытащить модель".
    3. Введите такие команды, как ollama run qwq:32b возможно ollama run hf.co/Qwen/QwQ-32B-GGUF:Q2_K.
    4. Дождитесь завершения загрузки и готовности модели к использованию.
  • Переключение моделей::
    • На странице диалога щелкните раскрывающееся меню Модель.
    • Выберите загруженную модель для немедленного переключения.
  • Пользовательские модели::
    1. Нажмите на кнопку "Настроить".
    2. Введите название модели и системную подсказку (например, "Play Maths Teacher").
    3. Выберите базовую модель и нажмите "Создать".

5. управление репликами

  • Использование шаблонов::
    1. Откройте экран "Подсказки".
    2. Просмотрите встроенные шаблоны, такие как "Написать план статьи" или "Отладка кода".
    3. Щелкните по шаблону, чтобы применить его непосредственно к диалогу.
  • Индивидуальные кии::
    • Нажмите на кнопку "Новый сигнал".
    • Введите название и содержание, сохраните его, а затем вы сможете сортировать и управлять им.
  • Быстрые приложения::
    • Во время диалога выберите слово подсказки, и ИИ ответит так, как задано.

6. Быстрые заметки

  • Создание заметок::
    1. Перейдите на страницу Заметки.
    2. Введите содержимое в формате Markdown, например, заголовок, список или код.
    3. Предварительный просмотр эффекта в реальном времени на правой стороне.
  • Экспорт заметок::
    • Нажмите на кнопку "Экспорт" и сохраните в формате .md Документация.
    • Можно передавать или импортировать в другие инструменты.

предостережение

  • Убедитесь, что служба Ollama запущена, иначе функция AI будет недоступна.
  • При первом запуске модели может потребоваться время, поэтому рекомендуется проверить подключение к Интернету.
  • Локально хранящиеся данные занимают много места, и периодически история очищается.
  • Если у вас возникнут проблемы, обратитесь к GitHub'у issues страницу или оставить отзыв.

Следуя этим шагам, вы сможете легко установить и использовать функции kun-lab. Будь то диалог, разбор документов или анализ изображений, управление интуитивно понятно и удобно.

 

сценарий применения

  1. Персональный учебный ассистент
    Студенты могут использовать kun-lab для анализа учебных программ или учебников, задавать вопросы, а ИИ будет подробно на них отвечать. Загрузите раздаточный материал по математике, и ИИ сможет пошагово объяснить формулы.
  2. Инструменты разработчика
    Программисты могут использовать kun-lab для отладки кода или изучения нового языка. Введите фрагмент кода, и искусственный интеллект предоставит предложения по оптимизации и выделит их.
  3. Документация
    Профессионалы могут быстро обобщать отчеты с помощью функции разбора документов. Загружая длинные PPT, искусственный интеллект извлекает ключевые моменты и создает краткие заметки.
  4. Творческое исследование
    Создатели могут генерировать истории или вдохновляться дизайном с помощью шаблонов слов-подсказок. Загружайте эскизы, которые ИИ проанализирует и предложит улучшения.

 

QA

  1. Требуется ли kun-lab подключение к Интернету?
    Основные функции работают локально и не требуют подключения к сети. Функция поиска в Интернете является опциональной и должна быть включена вручную.
  2. Какие форматы документов поддерживаются?
    Поддерживает файлы PDF, DOC, PPT, TXT и может быть расширен для других форматов в будущем.
  3. Как добавить новую модель?
    На экране библиотеки моделей введите ollama run команда, чтобы вытащить модель Ollama или Hugging Face.
  4. Безопасны ли данные?
    Все данные хранятся локально и не загружаются в облако, чтобы обеспечить конфиденциальность и безопасность.
© заявление об авторских правах

Похожие статьи

Нет комментариев

Вы должны войти в систему, чтобы участвовать в комментариях!
Войти сейчас
нет
Нет комментариев...