kun-lab: Ollama 기반의 네이티브 경량 AI 대화 클라이언트

최신 AI 리소스4 개월 전에 게시 됨 AI 공유 서클
2K 00

일반 소개

kun-lab은 다음을 기반으로 한 프로그램입니다. Ollama 는 가볍고 빠르며 현지화된 지능형 대화 환경을 제공하는 데 중점을 둔 오픈 소스 AI 대화 앱입니다. Windows, macOS, Linux(현재 Windows가 주력)를 지원하며 복잡한 설정 없이도 사용할 수 있습니다. 사용자는 AI와 원활한 다자간 대화를 나누고, 문서를 파싱하고, 이미지를 식별하고, 온라인에서 답을 검색할 수도 있습니다. 모든 데이터는 개인 정보 보호 및 보안을 위해 로컬에 저장됩니다. 또한 kun-lab은 개발자, 학생 또는 효율적인 AI 도구가 필요한 사람들을 위해 코드 렌더링, 프롬프트 템플릿 및 다국어 인터페이스를 제공합니다.

kun-lab:基于 Ollama 的本地轻量AI对话客户端

 

기능 목록

  • 지능형 대화여러 차례의 실시간 대화, 원활한 AI 응답, 보다 포괄적인 답변을 위한 네트워크 검색을 지원합니다.
  • 문서 해상도PDF, DOC, PPT, TXT 파일 업로드, AI 내용을 이해하고 질문에 답하세요.
  • 이미지 인식JPG, PNG 이미지 인식, 텍스트 추출 또는 장면 분석, 다중 라운드 대화 지원.
  • 모델 관리올라마 또는 허깅 페이스 모델 간에 쉽게 전환할 수 있으며, GGUF 및 세이프텐서 형식을 지원합니다.
  • 큐 워드 템플릿기본 제공 템플릿과 사용자 지정 지원으로 AI 창의력을 쉽게 발휘할 수 있습니다.
  • 코드 렌더링여러 프로그래밍 언어 코드를 자동으로 강조 표시하여 명확하게 표시합니다.
  • 빠른 참고 사항마크다운 구문, 실시간 미리보기 및 원클릭 내보내기를 지원합니다.
  • 다중 사용자 지원여러 사람이 동시에 로그인하여 각각 별도의 대화 공간을 사용할 수 있습니다.
  • 다국어 인터페이스중국어, 영어 및 기타 언어 지원, 보다 친숙한 조작.

 

도움말 사용

kun-lab은 Ollama에서 실행되는 풍부한 기능을 갖춘 AI 대화 도구로, 조작이 간편하고 현지에서 사용하기에 적합합니다. 다음은 사용자가 빠르게 익힐 수 있도록 설치 과정, 핵심 기능 및 시작 단계에 대한 자세한 설명입니다.

kun-lab 설치

kun-lab은 데스크톱 애플리케이션과 소스 코드 배포를 모두 제공합니다. 현재 데스크톱 애플리케이션은 Windows만 지원하며, 소스 코드 배포는 Windows, macOS 및 Linux를 지원합니다.

모드 1: 데스크톱 애플리케이션(권장)

  1. GitHub 릴리스 페이지(https://github.com/bahamutww/kun-lab/releases)를 방문하세요.
  2. 시스템에 적합한 설치 패키지를 다운로드하세요:
    • Windows:.exe 문서화.
    • macOS:.dmg 문서화(향후 지원).
    • Linux:.AppImage 어쩌면 .deb 문서화(향후 지원).
  3. 설치 패키지를 두 번 클릭하고 지시에 따라 설치를 완료합니다.
  4. 설치 후 바탕화면 아이콘을 클릭하면 추가 구성 없이 kun-lab을 실행할 수 있습니다.
  5. 실행 후 언어를 선택하고(기본적으로 중국어가 지원됨) 기본 인터페이스로 들어갑니다.

접근 방식 2: 소스 코드 배포

사용자 지정하거나 개발하려면 환경을 설치하고 코드를 실행해야 합니다. 자세한 단계는 다음과 같습니다:

  1. 환경 준비하기::
    • 시스템이 Windows, macOS 또는 Linux인지 확인합니다.
    • Python 3.10 이상을 설치합니다(다운로드: https://www.python.org).
    • Node.js 20.16.0 이상을 설치합니다(다운로드: https://nodejs.org).
    • Ollama를 설치하고 서비스를 시작합니다(참조: https://ollama.com).
  2. 클론 창고::
    git clone https://github.com/bahamutww/kun-lab.git
    cd kun-lab
    
  3. 가상 환경 만들기::
    python -m venv venv
    .\venv\Scripts\activate  # Windows
    # source venv/bin/activate  # macOS/Linux
    
  4. 백엔드 종속성 설치::
    cd backend
    pip install -r requirements.txt
    
  5. 프런트엔드 종속성 설치::
    cd frontend
    npm install
    
  6. 환경 변수 구성::
    cp .env.example .env
    
    • 텍스트 편집기로 열기 .env 파일을 열고 필요에 따라 구성(예: 포트 번호)을 수정합니다.
  7. 애플리케이션 실행::
    python run_dev.py
    
  8. 브라우저를 열고 http://localhost:5173 을 방문하여 시작하세요.

핵심 기능 작동

다음은 사용자가 쉽게 시작할 수 있도록 kun-lab의 주요 기능과 구체적인 작동 절차에 대해 설명합니다.

1. 지능형 AI 대화

  • 대화 시작하기::
    1. kun-lab을 열고 "채팅 대화" 또는 "새 대화"를 클릭합니다.
    2. 모델 목록에서 모델을 선택합니다(기본적으로 Ollama에서 제공하는 모델이 있습니다).
    3. 질문을 입력하면 AI가 실시간으로 답변합니다.
  • 인터넷 검색::
    • 질문에 최신 정보가 필요한 경우 '웹 검색 사용' 확인란을 선택합니다.
    • AI가 웹 페이지 데이터를 결합하여 보다 포괄적인 답변을 제공합니다.
  • 기록 관리::
    • 대화는 자동으로 저장되며 사이드바에서 '기록'을 클릭하면 확인할 수 있습니다.
    • 대화는 삭제하거나 내보낼 수 있습니다.
  • 코드 지원::
    • 코드 관련 질문을 입력하면 AI가 강조 표시된 형식으로 코드를 표시합니다.
    • Python, JavaScript 및 기타 언어 지원.

2. 문서 구문 분석

  • 문서 업로드::
    1. 문서 대화상자 화면을 클릭합니다.
    2. '업로드' 버튼을 클릭하고 PDF, DOC, PPT 또는 TXT 파일을 선택합니다.
    3. 문서가 구문 분석된 후 AI는 문서 요약을 표시합니다.
  • 질문하기::
    • 대화 상자에 문서와 관련된 질문을 입력합니다.
    • AI는 콘텐츠에 기반하여 답변하고 문맥화를 지원합니다.
  • 콘텐츠 검색::
    • 키워드를 입력하면 AI가 문서에서 관련 부분을 빠르게 찾아냅니다.
    • 결과를 클릭하면 원본 글의 위치로 이동합니다.

3. 이미지 인식

  • 사진 업로드::
    1. '그림 대화' 페이지로 이동합니다.
    2. '이미지 업로드'를 클릭하고 JPG, PNG 또는 JPEG 파일을 선택합니다.
    3. AI가 자동으로 장면을 인식하거나 텍스트를 추출합니다.
  • 다층적 대화::
    • "이 사진에는 무엇이 있나요?"와 같이 사진을 기반으로 질문하세요. .
    • AI의 답변이 끝나면 계속해서 더 깊이 있는 질문을 할 수 있습니다.
  • OCR 기능::
    • 이미지에 텍스트가 포함되어 있으면 AI가 텍스트를 추출하여 표시합니다.
    • 텍스트를 복사하거나 텍스트 기반 질문을 할 수 있습니다.

4. 모델 관리

  • 풀 모델::
    1. 모델 라이브러리 페이지로 이동합니다.
    2. "모델 가져오기"를 클릭합니다.
    3. 다음과 같은 명령을 입력합니다. ollama run qwq:32b 어쩌면 ollama run hf.co/Qwen/QwQ-32B-GGUF:Q2_K.
    4. 다운로드가 완료되고 모델을 사용할 준비가 될 때까지 기다립니다.
  • 모델 전환::
    • 대화 페이지에서 모델 드롭다운 메뉴를 클릭합니다.
    • 다운로드한 모델을 선택하면 즉시 전환할 수 있습니다.
  • 사용자 지정 모델::
    1. '사용자 지정' 버튼을 클릭합니다.
    2. 모델 이름과 시스템 프롬프트(예: "수학 선생님 놀이")를 입력합니다.
    3. 기본 모델을 선택하고 '만들기'를 클릭합니다.

5. 큐 관리

  • 템플릿 사용::
    1. '프롬프트' 화면을 엽니다.
    2. '문서 개요 작성' 또는 '코드 디버깅'과 같은 기본 제공 템플릿을 찾아보세요.
    3. 템플릿을 클릭하여 대화에 바로 적용합니다.
  • 사용자 지정 단서::
    • "새 큐"를 클릭합니다.
    • 이름과 콘텐츠를 입력하고 저장한 다음 정렬하고 관리할 수 있습니다.
  • 빠른 앱::
    • 대화 중에 프롬프트 단어를 선택하면 AI가 설정한 대로 응답합니다.

6. 빠른 참고 사항

  • 노트 만들기::
    1. 메모 페이지를 클릭합니다.
    2. 제목, 목록, 코드 등의 콘텐츠를 마크다운 형식으로 입력합니다.
    3. 오른쪽에서 효과를 실시간으로 미리 볼 수 있습니다.
  • 노트 내보내기::
    • "내보내기" 버튼을 클릭하고 다른 이름으로 저장합니다. .md 문서화.
    • 다른 도구로 공유하거나 가져올 수 있습니다.

주의

  • Ollama 서비스가 실행 중인지 확인합니다. 그렇지 않으면 AI 기능을 사용할 수 없습니다.
  • 모델을 처음 가져오는 데 시간이 걸릴 수 있으며 인터넷 연결을 확인하는 것이 좋습니다.
  • 로컬에 저장된 데이터는 많은 공간을 차지하며 주기적으로 기록을 정리합니다.
  • 문제가 발생하면 GitHub의 issues 페이지로 이동하거나 피드백을 제출하세요.

다음 단계에 따라 kun-lab의 기능을 쉽게 설치하고 사용할 수 있습니다. 대화, 문서 파싱, 이미지 분석 등 직관적이고 편리한 조작이 가능합니다.

 

애플리케이션 시나리오

  1. 개인 학습 도우미
    학생들은 쿤랩을 사용하여 코스웨어나 교과서를 파싱하고 질문을 하면 AI가 자세히 답변해 줍니다. 수학 유인물을 업로드하면 AI가 공식을 단계별로 설명해 줍니다.
  2. 개발자 도구
    프로그래머는 kun-lab을 사용하여 코드를 디버깅하거나 새로운 언어를 배울 수 있습니다. 코드 스니펫을 입력하면 AI가 최적화를 제안하고 강조 표시해 줍니다.
  3. 문서
    커리어 전문가들은 문서 구문 분석 기능으로 보고서를 빠르게 요약할 수 있습니다. 긴 PPT를 업로드하면 AI가 핵심 사항을 추출하여 간결한 노트를 생성합니다.
  4. 창의적 탐색
    크리에이터는 즉석 단어 템플릿으로 스토리를 만들거나 디자인 영감을 얻을 수 있습니다. AI가 분석하고 개선점을 제안하는 스케치를 업로드하세요.

 

QA

  1. 쿤랩을 사용하려면 인터넷 연결이 필요한가요?
    핵심 기능은 로컬에서 실행되며 네트워킹이 필요하지 않습니다. 인터넷 검색 기능은 선택 사항이며 수동으로 켜야 합니다.
  2. 어떤 문서 형식이 지원되나요?
    PDF, DOC, PPT, TXT 파일을 지원하며 향후 더 많은 포맷으로 확장될 수 있습니다.
  3. 새 모델을 추가하려면 어떻게 하나요?
    모델 라이브러리 화면에서 다음을 입력합니다. ollama run 명령을 사용하여 올라마 또는 포옹하는 얼굴 모델을 가져옵니다.
  4. 데이터는 안전한가요?
    모든 데이터는 개인 정보 보호 및 보안을 위해 클라우드에 업로드되지 않고 로컬에 저장됩니다.
© 저작권 정책

관련 문서

댓글 없음

댓글에 참여하려면 로그인해야 합니다!
지금 로그인
없음
댓글 없음...