튜토리얼: FastGPT 지식 베이스를 n8n 워크플로우에 원활하게 통합하기(MCP 프로토콜 기반)

AI 실습 튜토리얼3 개월 전에 게시 됨 AI 공유 서클
1.6K 00

배경: n8n과 RAG 지식창고를 통합할 때의 어려움

강력한 오픈 소스 자동화 워크플로우 도구로 주목받고 있는 n8n이 있습니다. 캐리비안의 해적의 비주얼 디자이너였던 Jan Oberhauser가 2019년에 설립한 이 회사는 Zapier와 같은 도구보다 더 유연하고 저렴한 자동화 솔루션을 제공하는 것을 목표로 합니다. "자유롭고 지속 가능하며, 개방적이고 실용적"이라는 철학을 가진 n8n은 다음을 통해 워크플로를 자동화한다는 아이디어에 중점을 두고 있습니다. 시각화 및 코드 듀얼 모드를 사용하면 서로 다른 애플리케이션을 연결하여 복잡한 프로세스를 자동화할 수 있습니다(공식 문서: https://docs.n8n.io/). 사용자가 익숙해지면 간단한 워크플로를 구축하는 것이 매우 빠르며, 클릭 한 번으로 워크플로를 공용 네트워크에 게시할 수 있도록 지원하여 매우 편리합니다.

n8n은 유연성과 결합성을 강조하여 '자동화의 레고'로 불리기도 합니다.

그러나 AI 애플리케이션의 인기가 높아지면서 n8n에서 RAG(검색 증강 생성) 지식 기반을 효율적으로 통합하는 방법이라는 공통된 요구가 등장했습니다. RAG는 정보 검색과 텍스트 생성을 결합한 기술로, 대규모 언어 모델이 질문에 답할 때 외부 지식 기반을 참조하여 보다 정확하고 문맥에 맞는 답변을 제공할 수 있도록 지원합니다. RAG는 정보 검색과 텍스트 생성을 결합하여 대규모 언어 모델이 질문에 답할 때 외부 지식 기반을 참조할 수 있도록 하여 보다 정확하고 문맥에 맞는 답변을 제공하는 기술입니다.

n8n에서 직접 빌드 RAG 지식창고는 비교적 복잡한 프로세스로 알려져 있습니다. 일반적으로 개발자는 파일 업로드, 벡터화 및 데이터베이스 저장을 처리하는 워크플로우와 RAG 기반 Q&A 상호 작용을 구현하는 두 가지 워크플로우를 수동으로 구축해야 합니다.

예: 왼쪽은 파일 업로드 워크플로, 오른쪽은 RAG Q&A 워크플로입니다.
教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)   教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

이 네이티브 솔루션은 성공적으로 구축되었더라도 경험 측면에서 만족스럽지 않을 수 있습니다. 이에 저희는 다음과 같은 생각을 하게 되었습니다. 널리 사용되는 FastGPT와 같은 외부의 성숙한 지식창고 솔루션을 n8n에 연결할 수 있을까요?

 

솔루션: FastGPT 및 MCP 프로토콜 활용

FastGPT는 높은 평가를 받고 있는 오픈 소스 LLM 애플리케이션 플랫폼으로, 특히 강력한 RAG 기능과 사용 편의성으로 유명합니다. FastGPT의 최근 업데이트(깃허브: https://github.com/labring/FastGPT)는 흥미로운 기능인 MCP(메타 컴포넌트 프로토콜)를 지원합니다.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

MCP 서로 다른 AI 애플리케이션과 서비스 간의 상호 운용성 문제를 해결하기 위해 설계된 FastGPT는 MCP 클라이언트로서 다른 서비스에 대한 액세스를 지원할 뿐만 아니라 MCP 서버 역할을 하여 다른 MCP 호환 플랫폼에 기능(예: 지식 기반)을 노출하는 "범용 소켓" 프로토콜로 이해할 수 있습니다.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

공교롭게도 n8n은 최근 MCP 프로토콜을 공식적으로 지원하고 있습니다. 즉, MCP를 통해 FastGPT의 지식창고 기능을 게시한 다음 n8n에서 '도구'로 액세스할 수 있습니다. 이 솔루션은 완전히 실현 가능한 것으로 입증되었으며 인터페이스 프로세스도 매우 원활합니다. FastGPT의 성숙한 RAG 구현을 사용하면 통합 지식창고 Q&A 결과가 매우 좋은 경우가 많습니다.

전체 운영 프로세스는 다음 단계로 요약할 수 있습니다:

  1. n8n 환경(로컬 또는 서버)을 배포합니다.
  2. FastGPT를 MCP를 지원하는 버전으로 배포하거나 업그레이드하세요.
  3. 외부에서 서비스를 제공하기 위해 FastGPT에서 MCP-서버를 생성하고 구성합니다.
  4. n8n 워크플로우에서 이 FastGPT MCP 서버에 액세스하세요.

 

FastGPT 배포 또는 업그레이드

FastGPT는 버전 v4.9.6부터 MCP를 지원했으며, 안정적인 최신 버전(작성 시점 기준 v4.9.7-fix2)을 사용하는 것이 좋습니다. 사용 방법은 다음과 같습니다. docker-compose 배포 또는 업그레이드하는 방법(사전 설치된 Docker 환경이 필요함).

다음 두 가지 문서를 준비해야 합니다:

  1. FastGPT 최신 정보 docker-compose.yml 문서화.
  2. FastGPT 최신 정보 config.json 문서화.

두 파일은 모두 FastGPT의 GitHub 리포지토리에서 다운로드할 수 있습니다:

  • docker-compose-pgvector.yml: https://github.com/labring/FastGPT/blob/main/deploy/docker/docker-compose-pgvector.yml
  • config.json: https://raw.githubusercontent.com/labring/FastGPT/refs/heads/main/projects/app/data/config.json

참고: GitHub에 직접 액세스할 수 없는 경우 다른 방법을 찾거나 국내 미러 소스를 사용하세요.

다음 단계는 새 배포 및 업그레이드에 적용됩니다:

  • 업그레이드하는 경우 이전 버전을 먼저 백업하세요! docker-compose.yml 및 관련 데이터 볼륨.
  • 사용 가능한 최신 데이터는 docker-compose.yml 노래로 응답 config.json 파일은 같은 디렉터리에 배치됩니다.
教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

존재 config.json 이 문서에서는 다음 사항에 특별한 주의를 기울여야 합니다. mcp.server.host 구성 항목입니다.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)
教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

  • FastGPT와 n8n이 모두 로컬 도커 환경에 배포된 경우, 다음과 같이 설정할 수 있습니다. mcp.server.host 는 컴퓨터의 로컬 IP 주소로 설정되며 포트는 일반적으로 다음과 같이 고정됩니다. 3005.
  • 클라우드 서버에 배포하는 경우 서버의 엑스트라넷 IP 주소 또는 도메인 이름으로 설정해야 합니다.

구성이 올바른지 확인한 후 파일 디렉터리에서 터미널 또는 명령줄을 열고 다음 명령을 실행합니다:

docker-compose up -d

다음 그림과 유사한 로그 출력이 표시되고 컨테이너가 모두 정상적으로 실행되고 있다면 배포 또는 업그레이드가 성공했다는 뜻입니다.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

팁: Docker 이미지를 가져오는 데 문제가 있는 경우 다음을 수정해 보세요. docker-compose.yml 파일에서 공식 미러 주소를 국내 미러 저장소 주소(예: AliCloud 미러)로 바꿉니다.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

 

FastGPT에서 MCP 서비스 만들기

FastGPT를 성공적으로 배포하거나 업그레이드한 후, 브라우저를 통해 FastGPT 웹 인터페이스에 액세스합니다(기본값은 http://127.0.0.1:3000).

다음으로 이동합니다. 워크벤치 -> MCP 서비스 -> 새 서비스여기에서 외부에 기능을 노출하는 MCP-서버를 만들 수 있습니다. 여기에서 외부에 기능을 노출하는 MCP-서버를 만들 수 있습니다.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

서비스를 만든 후 관리이 MCP 서비스에 도구를 추가할 수 있음을 알 수 있습니다. 이러한 도구는 FastGPT에서 생성한 봇, 워크플로 등의 애플리케이션이 될 수 있습니다.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

여기서 한 가지 중요한 문제가 있는데, FastGPT에서 생성된 "지식 베이스"를 독립형 도구로 MCP 서비스에 직접 추가하는 것은 불가능해 보입니다. 지식 베이스에 액세스할 수 있는 봇이 MCP 서비스에 도구로 추가되면, MCP에서 호출할 때 n8n 측에서는 지식 베이스에서 검색된 원본 조각이 아닌 봇 내의 빅 모델에 의해 처리된 콘텐츠(예: 요약, 재작성)를 가져올 수 있습니다. 이는 특히 원본 텍스트를 정확하게 인용해야 하는 시나리오에서는 예상과 다를 수 있습니다.

현명한 해결 방법은 FastGPT의 워크플로 기능. 지식창고 검색을 수행하고 필요에 따라 응답 형식을 지정하는 것을 핵심 기능으로 하는 간단한 워크플로우를 FastGPT에서 만들 수 있습니다.

구체적인 단계는 다음과 같습니다:

  1. FastGPT에서 새 워크플로를 만듭니다.
  2. 추가만 지식창고 검색 노드와 지정 응답 노드(또는 필요에 따라 다른 논리적 노드)를 추가합니다.
  3. 구성 지식창고 검색 노드를 클릭하고 대상 지식창고를 선택한 다음 관련 파라미터(예: 최소 관련성, 최대 인용 횟수 등)를 설정합니다.
  4. 구성 지정 응답 노드를 사용하여 검색 결과를 출력하는 방법을 결정합니다(예: 원본 텍스트 블록을 직접 출력).
  5. 오른쪽 상단 모서리를 클릭합니다. 저장 및 게시.
教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

중요: 워크플로 이름은 영문으로 작성하는 것이 좋으며 애플리케이션 설명을 반드시 입력하세요. 이 정보는 n8n으로 표시되며 도구를 식별하는 데 도움이 됩니다.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

워크플로 생성 및 게시를 완료한 후 다시 MCP 서비스 관리 인터페이스.

  1. 새 MCP 서비스를 만들거나 기존 서비스를 편집합니다.
  2. 방금 만든 지식창고 검색이 포함된 워크플로우를 이 서비스 아래에 도구로 추가하세요.
教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

추가를 완료했으면 사용 시작.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

팝업 창에서 SSE 열에 제공된 주소를 복사합니다. 이 주소는 방금 생성한 FastGPT MCP-서버의 액세스 포인트입니다.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

 

n8n에서 FastGPT MCP 서비스에 액세스하기

이제 n8n의 워크플로 편집 화면으로 전환합니다.

  1. 적합한 노드를 선택합니다. AI 에이전트 노드의 도구 구성 섹션에서 더하기 기호를 클릭합니다. +.
  2. 공식적으로 제공된 MCP 클라이언트 도구 노드.
教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)
  1. 존재 MCP 클라이언트 도구 의 구성 화면에서
    • 앞에서 복사한 SSE 주소를 FastGPT에서 서버 URL 필드.
    • 이 도구 노드에 대해 설명적인 이름을 설정할 수 있습니다(예 FastGPT Knowledge Base via MCP)를 클릭하여 상담원을 쉽게 호출할 수 있습니다.
教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

구성이 완료되면 n8n의 Chat 대화 상자(또는 다른 트리거)에서 테스트할 수 있습니다. 지식창고 호출이 필요한 질문을 발행합니다. 구성이 올바르다면, n8n이 FastGPT MCP 서비스를 성공적으로 호출하고 FastGPT의 지식 기반에서 답변의 근거로 관련 정보를 가져오는 것을 볼 수 있습니다.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

앞서 언급했듯이, FastGPT의 RAG 지식 기반은 일반적으로 경량 LLM 애플리케이션 플랫폼에서 매우 효과적인 것으로 간주됩니다.

또한 상담원이 어떤 도구를 사용할지 이해하고 선택할 수 있도록 FastGPT의 워크플로우에 설정된 이름과 소개가 n8n 측에 도구 정보로 표시되는 것을 볼 수 있습니다.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

 

아이디어 확장 및 대안적 접근

(워크플로우에 캡슐화된) FastGPT 지식 베이스에 액세스하는 것은 효율적이고 유연한 접근 방식으로, MCP를 통해 n8n에 액세스할 수 있습니다. 이를 기반으로 확장할 수도 있습니다:

  • FastGPT의 플러그인(소프트웨어 구성 요소) 어쩌면 지식창고가 있는 봇 자체가 외부에 MCP 서비스로 패키지화되어 있습니다.
  • FastGPT의 API FastGPT를 사용하면 생성된 애플리케이션(예: 지식창고가 있는 봇)을 OpenAI API 형식과 호환되는 인터페이스로 게시할 수 있습니다.
教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

이 API 접근 방식은 n8n의 FastGPT 지식 기반에 액세스하는 데에도 사용할 수 있습니다:

  1. n8n의 AI 에이전트 노드(또는 LLM을 호출해야 하는 다른 노드)에 새 채팅 모델.
  2. 옵션 OpenAI 호환 채팅 모델 유형.
  3. 구성 자격 증명:
    • Base URL FastGPT에서 제공한 API 주소를 입력합니다.
    • API Key FastGPT 애플리케이션에 해당하는 API 키를 입력합니다.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)
教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

  1. Model Name 임의로 입력할 수 있으며, 실제 모델은 FastGPT 봇 내에서 구성한 대로 적용됩니다.
教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

이러한 방식으로 n8n은 요청을 FastGPT의 API 엔드포인트로 전송하고, FastGPT는 이를 처리하여 결과를 반환합니다. 이는 외부 빅 모델 서비스로서 FastGPT의 봇(및 지식 베이스)을 호출하는 것과 동일합니다.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

MCP와 API 접근 방식을 비교하세요:

  • MCP 방법::
    • 장점: n8n의 "도구" 개념에 더 부합하고, 에이전트의 다른 도구와 함께 사용할 수 있으며, 더 네이티브하고, 잠재적으로 더 풍부한 메타데이터(예: 도구 설명)를 제공할 수 있습니다.
    • 단점: 설정 단계가 상대적으로 더 많습니다(워크플로 생성, MCP 서비스 구성).
  • API 메서드::
    • 장점: 설정이 비교적 쉽고, API 주소와 키만 받으면 되며, FastGPT를 단일 Q&A 엔진으로 사용하는 시나리오에서는 간단합니다.
    • 단점: n8n에서는 결합 가능한 "도구"가 아닌 외부 모델에 대한 호출로 작동하며, 모델 구성(예: 온도, 최대 토큰 등)을 n8n 측과 FastGPT 측에서 조율해야 할 수 있습니다.

개발자는 특정 요구 사항과 선호도에 따라 적절한 통합 방법을 선택할 수 있습니다.

 

게시 및 애플리케이션

FastGPT 지식창고의 통합 방식에 관계없이 n8n 워크플로우 디버깅을 완료하면 외부에서 사용할 수 있도록 쉽게 게시할 수 있습니다.

예를 들어 채팅 메시지 트리거 노드로 사용하는 경우:

  1. 더블 클릭 채팅 메시지 노드.
    教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)
  2. 열다 채팅을 공개적으로 사용 가능하게 설정하기 옵션.
    教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)
  3. 시스템에서 공개 채팅 URL 링크가 생성되며, 이를 복사하여 공유할 수 있습니다.
  4. 잊지 마세요. 저장 더 나아가 활성화 워크플로.
教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

이 공개 채팅 페이지는 모바일 디바이스의 브라우저에서도 액세스하여 사용할 수 있습니다.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

n8n에서 제공하는 이 공개 채팅 페이지는 비밀번호 액세스 설정, 파일 업로드 허용 등 다양한 사용자 지정 기능도 지원한다는 점도 언급할 가치가 있습니다.

教程:将 FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)

따라서 n8n은 MVP(최소기능제품) 제품 프로토타입을 빠르게 구축하거나 개인 및 팀의 효율성을 높이는 AI 워크플로우를 구축하는 데 이상적입니다.

를 제외하고 채팅 메시지 노드 외에도 n8n의 다른 많은 트리거 노드(예: Webhook)도 엑스트라넷 액세스에 대한 퍼블리싱을 지원하므로 매우 높은 수준의 자유도를 제공합니다. n8n을 로컬에 배포하는 경우, 인트라넷 침투와 같은 기술을 통해 엑스트라넷 액세스를 달성할 수 있습니다.

 

결론: N8N의 가치 제안

이러한 유형의 로우코드/노코드 자동화 도구에 대해 논의할 때 흔히 하는 질문은 "왜 그냥 코드로 구현하지 않는가?"입니다. 프로그래밍에 익숙한 개발자에게는 코드를 사용하는 것이 더 간단하고 제어가 쉬워 보입니다.

n8n과 같은 도구에는 학습 곡선이 있고 시작하는 데 다소 시간이 걸릴 수 있는 것은 사실입니다. 하지만 일단 익숙해지면 워크플로우를 구축하고 반복하는 효율성이 기존 코드 개발의 효율성을 훨씬 뛰어넘는 경우가 많으며, 특히 여러 API와 서비스를 통합하는 시나리오에서 더욱 그렇습니다. n8n의 강력한 노드 에코시스템과 커뮤니티 지원은 간단한 것부터 복잡한 것까지 다양한 자동화 요구를 충족할 수 있으므로 아이디어를 빠르게 실행할 수 있습니다.

물론 고도의 커스터마이징, 극한의 성능이 필요하거나 복잡한 기본 로직을 포함하는 엔터프라이즈급 프로젝트의 경우 여전히 순수 코드 개발이 필요합니다. 하지만 수많은 자동화 시나리오, 내부 도구 구축, 신속한 프로토타이핑 및 기타 요구 사항의 경우 n8n과 유사한 도구가 매우 효율적이고 유연한 옵션을 제공합니다. MCP와 같은 프로토콜을 통해 FastGPT와 같은 우수한 AI 애플리케이션을 통합하면 n8n의 기능 범위가 더욱 확장됩니다.

© 저작권 정책
AiPPT

관련 문서

댓글 없음

댓글에 참여하려면 로그인해야 합니다!
지금 로그인
없음
댓글 없음...