2024 RAG 인벤토리, RAG 적용 전략 100+

AI 기술 자료9개월 전 업데이트 AI 공유 서클
10.1K 00
2024年度RAG清单,RAG应用策略100+

 

2024년을 돌아보면, 대형 모델은 하루가 다르게 변화하고 있으며 수백 개의 지능형 기관이 경쟁하고 있습니다. AI 애플리케이션의 중요한 부분인 RAG는 "영웅과 가신 그룹"이기도 합니다. 연초에는 ModularRAG가 계속 뜨거워지고 GraphRAG가 빛나고, 중반에는 오픈 소스 도구가 본격화되고, 지식 그래프가 새로운 기회를 창출하고, 연말에는 그래프 이해와 멀티 모달 RAG가 새로운 여정을 시작하므로 거의 "당신이 노래하고 내가 무대에 등장하는"것과 같고 이상한 기술이 나오고 목록이 계속 나옵니다!

2024년의 대표적인 RAG 시스템과 논문(AI 노트, 출처, 요약 정보 포함)을 선정했고, 논문 마지막에 RAG 개요와 테스트 벤치마킹 자료를 포함했으며, 16,000자 분량의 이 논문이 RAG를 빠르게 이해하시는 데 도움이 되길 바랍니다.

월별로 72개 기사의 전문을 'RAG 일흔두 가지 스타일'이라는 제목으로 요약하여 제공합니다.

비고: 

이 글의 모든 콘텐츠는 오픈 소스 리포지토리 Awesome-RAG에서 호스팅되었으며, 부족한 부분이 있으면 언제든지 PR을 제출해 주세요.

GitHub 주소: https://github.com/awesome-rag/awesome-rag

 

(01) 그래프 리더 [그래픽 전문가]

그래픽 전문가마치 마인드맵을 잘 만드는 가정교사와 같이 긴 텍스트를 명확한 지식 네트워크로 변환하여 AI가 지도를 따라 탐색하듯 답에 필요한 핵심 포인트를 쉽게 찾을 수 있어 긴 텍스트를 다룰 때 발생하는 '길을 잃는' 문제를 효과적으로 극복할 수 있습니다.

- 시간: 01.20

- 논문: GraphReader: 대규모 언어 모델의 긴 컨텍스트 능력을 향상시키는 그래프 기반 에이전트 구축

그래프 리더는 긴 텍스트를 그래프로 구성하고 지능을 사용하여 해당 그래프를 자율적으로 탐색함으로써 긴 텍스트를 처리하도록 설계된 그래프 기반 지능 시스템입니다. 문제를 받으면 지능은 먼저 단계별 분석을 수행하여 합리적인 계획을 수립합니다. 그런 다음 미리 정의된 함수 집합을 호출하여 노드 콘텐츠와 이웃을 읽고 그래프를 거칠게부터 세밀하게 탐색할 수 있도록 합니다. 탐색 프로세스 전반에 걸쳐 지능형 바디는 새로운 인사이트를 지속적으로 기록하고 현재 상황을 반영하여 답을 생성할 수 있는 충분한 정보를 수집할 때까지 프로세스를 최적화합니다.

2024年度RAG清单,RAG应用策略100+

(02) MM-RAG [다면]

다재다능한 사람시각, 청각, 언어에 동시에 능숙하여 다양한 형태의 정보를 이해할 뿐만 아니라 자유롭게 전환하고 상호 연관시킬 수 있는 올라운더와 같은 존재입니다. 다양한 정보를 종합적으로 이해함으로써 추천, 비서, 미디어 등 다양한 분야에서 보다 스마트하고 자연스러운 서비스를 제공할 수 있습니다.

비교 학습, 멀티모달 임베딩으로 구현된 임의 모달 검색, 멀티모달 검색 증강 생성(MM-RAG), 벡터 데이터베이스를 사용하여 멀티모달 생산 시스템을 구축하는 방법 등 멀티모달 머신 러닝의 발전이 소개됩니다. 또한 추천 시스템, 가상 비서, 미디어 및 전자상거래와 같은 분야에서 멀티모달 AI의 유망한 애플리케이션을 강조하면서 멀티모달 AI의 미래 트렌드도 살펴봅니다.

2024年度RAG清单,RAG应用策略100+

(03) CRAG [자체 수정]

자체 수정: 노련한 편집자처럼 간단하고 빠른 방법으로 예비 정보를 선별한 다음 웹 검색을 통해 정보를 확장하고, 최종적으로 제시된 콘텐츠가 정확하고 신뢰할 수 있도록 분해 및 재구성합니다. RAG에 품질 관리 시스템을 도입하여 제작하는 콘텐츠의 신뢰도를 높이는 것과 같습니다.

- 시간: 01.29

- 논문: 수정 검색 증강 세대

- 프로젝트: https://github.com/HuskyInSalt/CRAG

CRAG는 경량 검색 평가기 설계와 대규모 웹 검색 도입으로 검색된 문서의 품질을 향상시키고, 분해 및 재구성 알고리즘을 통해 검색된 정보를 더욱 정제하여 생성된 텍스트의 정확도와 신뢰도를 높이는 기술로, 검색 결과를 스스로 수정하여 생성된 텍스트의 견고성을 높이는 기존 RAG 기술을 보완 및 개선한 기술입니다.

2024年度RAG清单,RAG应用策略100+

(04) 랩터 [계층적 일반화]

계층 구조 요약잘 정리된 사서처럼 문서의 내용이 트리 구조로 상향식으로 구성되어 있어 전체 개요를 보거나 세부 사항으로 드릴다운하는 등 다양한 수준 간에 유연하게 이동하며 정보를 검색할 수 있습니다.

- 시간: 01.31

- 논문: RAPTOR: 트리 조직 검색을 위한 재귀적 추상 처리

- 프로젝트: https://github.com/parthsarthi03/raptor

RAPTOR(Recursive Abstractive Processing for Tree-Organised Retrieval)는 텍스트 블록을 재귀적으로 포함, 클러스터링, 요약하는 새로운 방법을 도입하여 아래에서 위로 다양한 수준의 요약이 포함된 트리를 구축합니다. 추론 시 RAPTOR 모델은 이 트리에서 검색하여 추상화 수준이 서로 다른 긴 문서의 정보를 통합합니다.

2024年度RAG清单,RAG应用策略100+

(05) T-RAG [개인 상담사]

개인 상담사조직 구조에 익숙한 사내 컨설턴트답게 트리 구조를 사용하여 정보를 체계적으로 정리하여 프라이버시를 보호하면서 현지화된 서비스를 효율적이고 비용 효율적으로 제공하는 데 능숙합니다.

- 논문: T-RAG: LLM 참호에서 얻은 교훈

T-RAG(트리 검색 증강 생성)는 트리 구조를 사용하여 컨텍스트를 증강하는 조직 내의 엔티티 계층을 표현하는 미세 조정된 오픈 소스 LLM과 RAG를 결합하여 로컬에서 호스팅되는 오픈 소스 모델을 활용하여 추론 지연 시간, 토큰 사용 비용, 지역 및 지리적 가용성 문제를 해결하면서 데이터 프라이버시 우려를 해결합니다.

2024年度RAG清单,RAG应用策略100+

(06) RAT [Thinker]

사상가성찰하는 튜터처럼 한 번에 결론을 내리는 대신 초기 아이디어로 시작한 다음 검색된 관련 정보를 사용하여 추론 과정의 각 단계를 지속적으로 검토하고 개선하여 사고의 사슬을 더 단단하고 신뢰할 수 있게 만듭니다.

- 논문: RAT: 검색 증강 사고 Elicit 긴 지평선 세대의 컨텍스트 인식 추론

- 프로젝트: https://github.com/CraftJarvis/RAT

RAT(검색 증강 사고) 초기 제로 샘플 생각 체인(CoT)을 생성한 후 각 생각 단계는 작업 쿼리, 현재 및 과거 생각 단계와 관련된 검색 정보를 사용하여 개별적으로 수정되며, RAT는 오랜 시간이 걸리는 다양한 생성 작업의 성능을 크게 향상시킵니다.

2024年度RAG清单,RAG应用策略100+

(07) RAFT [오픈북 마스터]

책 펼치기의 달인훌륭한 지원자답게 올바른 참고 자료를 찾을 뿐만 아니라 핵심 요소를 정확하게 인용하고 추론 과정을 명확하게 설명하여 근거에 기반하면서도 합리적인 답변을 작성합니다.

- 논문: RAFT: 언어 모델을 도메인에 맞게 조정하기 RAG

RAFT는 도메인별 '오픈북' 환경에서 관련 없는 문서는 무시하고 관련 문서의 올바른 순서를 그대로 인용하여 질문에 답하도록 모델을 훈련함으로써 모델의 추론 능력을 향상시키는 것을 목표로 하며, 이는 사고 연쇄 반응과 결합하여 모델의 추론 능력을 크게 향상시킵니다.

2024年度RAG清单,RAG应用策略100+

(08) Adaptive-RAG [적합한 직무에 적합한 인재 채용하기]

(관용구) 학생의 능력에 맞게 가르치다.: 다양한 난이도의 질문에 직면하면 가장 적절한 답변을 지능적으로 선택합니다. 간단한 질문은 바로 답변하고, 복잡한 질문은 학생의 특정 문제에 따라 교수법을 조정하는 방법을 아는 숙련된 교사처럼 더 많은 정보 또는 단계별 추론으로 답변합니다.

- 논문: Adaptive-RAG: 질문의 복잡성을 통한 검색 증강 대규모 언어 모델 적응 학습

- 프로젝트: https://github.com/starsuzi/Adaptive-RAG

Adaptive-RAG는 쿼리의 복잡도에 따라 가장 단순한 것부터 가장 복잡한 것까지 LLM에 가장 적합한 검색 강화 전략을 동적으로 선택합니다. 이 선택 프로세스는 쿼리의 복잡도를 예측하고 자동으로 레이블을 수집하여 선택 프로세스를 최적화하는 소규모 언어 모델 분류기를 통해 구현됩니다. 이 접근 방식은 다양한 쿼리 복잡성에 대해 반복 및 단일 단계 검색 강화 LLM과 무검색 방법 간에 원활하게 적응하는 균형 잡힌 전략을 제공합니다.

2024年度RAG清单,RAG应用策略100+

(09) 히포래그 [해마]

해마: 인간 정신의 말처럼 오래된 지식과 새로운 지식은 능숙하게 거미줄처럼 엮여 있습니다. 단순히 정보를 쌓아두는 것이 아니라 각각의 새로운 지식이 가장 적합한 집을 찾을 수 있도록 합니다.

- 논문: HippoRAG: 대규모 언어 모델을 위한 신경생물학적 영감의 장기 기억

- 프로젝트: https://github.com/OSU-NLP-Group/HippoRAG

인간 장기 기억의 해마 색인 이론에서 영감을 얻은 새로운 검색 프레임워크로, 새로운 경험에 대한 더 깊고 효율적인 지식 통합을 목표로 합니다. HippoRAG는 LLM, 지식 그래프, 개인화된 PageRank 알고리즘을 시너지 효과를 내며 조율하여 인간 기억에서 신피질과 해마의 서로 다른 역할을 모방합니다.

2024年度RAG清单,RAG应用策略100+

(10) RAE [지능형 편집]

지능형 편집기(소프트웨어)신중한 뉴스 편집자처럼 관련 사실을 깊이 파고들 뿐만 아니라 연쇄 추론을 통해 간과하기 쉬운 핵심 정보를 찾아내는 동시에 중복을 줄이는 방법을 파악하여 최종 정보가 정확하고 간결하도록 하고 "말은 많지만 신뢰할 수 없는" 문제를 피할 수 있습니다.

- 논문: 멀티홉 질문 답변을 위한 언어 모델에서의 검색 강화 지식 편집

- 프로젝트: https://github.com/sycny/RAE

RAE(멀티홉 Q&A 검색 강화 모델 편집 프레임워크)는 먼저 편집된 사실을 검색한 다음 문맥 학습을 통해 언어 모델을 최적화합니다. 상호 정보 극대화 기반 검색 접근 방식은 대규모 언어 모델의 추론 능력을 활용하여 기존의 유사도 기반 검색에서 놓칠 수 있는 연쇄적인 사실을 식별합니다. 또한 이 프레임워크에는 검색된 사실에서 중복 정보를 제거하는 가지치기 전략이 포함되어 있어 편집 정확도를 개선하고 착시 문제를 완화합니다.

2024年度RAG清单,RAG应用策略100+

(11) RAGCache [창고원]

창고 점원대형 물류센터처럼 자주 사용하는 지식은 픽업하기 가장 쉬운 선반에 배치하세요. 자주 사용하는 소포는 문 앞에, 자주 사용하지 않는 소포는 뒤쪽 쓰레기통에 넣어 픽업 효율을 극대화하는 방법을 알아두세요.

- 논문: RAGCache: 검색 증강 세대를 위한 효율적인 지식 캐싱

RAGCache는 검색된 지식의 중간 상태를 지식 트리로 구성하고 GPU와 호스트 메모리 계층 구조 모두에 캐싱하는 새로운 다단계 동적 캐싱 시스템으로, LLM 추론 기능과 RAG 검색 패턴을 고려한 대체 전략을 제안합니다. 또한 검색 및 추론 단계를 동적으로 중첩하여 엔드투엔드 지연 시간을 최소화합니다.

2024年度RAG清单,RAG应用策略100+

(12) GraphRAG [커뮤니티 요약]

커뮤니티 요약먼저 이웃의 주민 네트워크를 분류한 다음 각 이웃 서클에 프로필을 부여합니다. 누군가 길 찾기를 요청하면 각 동네 서클이 단서를 제공하고 이를 최종적으로 가장 완벽한 답변에 통합합니다.

- 논문: 로컬에서 글로벌로: 쿼리 중심 요약에 대한 그래프 RAG 접근 방식

- 프로젝트: https://github.com/microsoft/graphrag

먼저 소스 문서에서 엔티티 지식 그래프를 도출한 다음, 밀접하게 관련된 모든 엔티티 그룹에 대해 커뮤니티 요약이 미리 생성되는 두 단계로 그래프 기반 텍스트 인덱스를 구축합니다. 문제가 주어지면 각 커뮤니티 요약을 사용하여 부분 응답을 생성한 다음, 모든 부분 응답을 다시 요약하여 사용자에게 최종 응답을 제공합니다.

2024年度RAG清单,RAG应用策略100+

(13) R4 [마스터 안무가]

마스터 편곡자타이포그래피 전문가처럼 자료의 순서와 표현을 최적화하여 핵심 모델을 변경하지 않고도 콘텐츠를 더욱 체계적이고 집중적으로 만들어 출력물의 품질을 향상시킵니다.

- 논문: R4: 검색 증강 대규모 언어 모델을 위한 강화된 리트리버-재주문-응답자

R4(강화 검색-순서 재조정-응답)는 검색 기능이 강화된 대규모 언어 모델의 문서 순서를 학습하는 데 사용되며, 많은 수의 파라미터가 고정된 상태에서 대규모 언어 모델의 생성 기능을 더욱 향상시킵니다. 순서 변경 학습 프로세스는 생성된 응답의 품질에 따라 문서 순서 조정과 문서 표현 개선의 두 단계로 나뉩니다. 구체적으로 문서 순서 조정은 그래프 주의 학습을 기반으로 검색된 문서 순서를 시작, 중간, 끝 위치로 정리하여 응답 품질에 대한 강화 보상을 극대화하는 것을 목표로 합니다. 문서 표현 향상은 문서 수준 경사 적대 학습을 통해 품질이 낮은 응답의 검색된 문서 표현을 더욱 세분화합니다.

2024年度RAG清单,RAG应用策略100+

(14) IM-RAG [나 자신에게 말 걸기]

자신과 대화하기문제에 부딪혔을 때 "어떤 정보를 확인해야 할까", "이 정도면 충분한 정보일까"를 머릿속으로 계산하고 지속적인 내부 대화를 통해 답을 구체화합니다. 이러한 '독백' 능력은 깊이 생각하고 복잡한 문제를 단계적으로 해결할 수 있는 인간 전문가와 같은 능력이라고 할 수 있습니다.

- 논문: IM-RAG: 다중 라운드 검색-내면의 독백 학습을 통한 증강 세대

IM-RAG는 내부 독백을 학습하여 IR 시스템과 LLM을 연결함으로써 여러 차례의 검색 강화 생성을 지원합니다. 이 접근 방식은 정보 검색 시스템을 대규모 언어 모델과 통합하여 내적 독백을 학습함으로써 여러 차례의 검색 강화 생성을 지원합니다. 내적 독백 중에 대규모 언어 모델은 핵심 추론 모델 역할을 하며, 리트리버를 통해 더 많은 정보를 수집하기 위해 쿼리를 제기하거나 대화 컨텍스트에 따라 최종 답변을 제공할 수 있습니다. 또한 리트리버의 출력을 개선하는 옵티마이저를 도입하여 추론자와 다양한 기능을 가진 정보 검색 모듈 간의 간극을 효과적으로 메우고 다각적인 커뮤니케이션을 촉진합니다. 전체 내적 독백 과정은 강화 학습(RL)을 통해 최적화되며, 중간 단계 보상을 제공하기 위해 진행 추적기가 도입되고, 답변 예측은 감독 미세 조정(SFT)을 통해 개별적으로 더욱 최적화됩니다.

2024年度RAG清单,RAG应用策略100+

(15) AntGroup-GraphRAG [수백 명의 전문가]

수많은 학파이 회사는 업계 최고의 전문가들이 모여 정보를 빠르게 찾을 수 있는 다양한 방법을 전문으로 하며, 자연어 쿼리를 이해할 뿐만 아니라 정확한 검색을 제공하여 복잡한 지식 검색을 비용 효율적이고 효율적으로 수행할 수 있도록 지원합니다.

- 프로젝트: https://github.com/eosphoros-ai/DB-GPT

Ant TuGraph 팀은 벡터, 그래프, 전문 등 다양한 지식베이스 인덱싱 기반과 호환되며 저비용 지식 추출, 문서 구조 매핑, 그래프 커뮤니티 추상화 및 하이브리드 검색을 지원하는 DB-GPT 기반의 오픈 소스 GraphRAG 프레임워크를 구축하여 QFS Q&A 문제를 해결했습니다. 또한 키워드, 벡터, 자연어 등 다양한 검색 기능을 지원합니다.

2024年度RAG清单,RAG应用策略100+

(16) [레고] 코타에몽

레고(장난감)바로 사용하거나 자유롭게 분해 및 리모델링할 수 있는 기성품 Q&A 빌딩 블록 세트입니다. 사용자는 원하는 대로 사용할 수 있고 개발자는 원하는 대로 변경할 수 있습니다.

- 프로젝트: https://github.com/Cinnamon/kotaemon

나만의 문서 Q&A 시스템을 구축하고 사용자 지정할 수 있는 깔끔하고 사용자 정의 가능한 오픈 소스 RAG UI입니다. 최종 사용자와 개발자의 요구 사항을 모두 고려합니다.

2024年度RAG清单,RAG应用策略100+

(17) 플래시래그 [보물 상자]

보물 상자연구자들이 빌딩 블록을 고르듯 자신만의 검색 모델을 구축할 수 있는 툴킷으로 다양한 RAG 아티팩트를 패키징합니다.

- 논문: FlashRAG: 효율적인 검색 증강 세대 연구를 위한 모듈식 툴킷

- 프로젝트: https://github.com/RUC-NLPIR/FlashRAG

FlashRAG는 연구자들이 기존 RAG 방법을 재현하고 통합 프레임워크 내에서 자체 RAG 알고리즘을 개발할 수 있도록 설계된 효율적이고 모듈화된 오픈 소스 툴킷입니다. 이 툴킷은 12가지 최신 RAG 방법을 구현하고 32개의 벤치마크 데이터 세트를 수집 및 대조합니다.

2024年度RAG清单,RAG应用策略100+

(18) GRAG [형사]

탐정 작업 수행표면적인 단서에 만족하지 않고 텍스트 사이의 연결망을 더 깊이 파고들어 범죄처럼 각 정보 뒤에 숨겨진 진실을 추적하여 더 정확한 답을 찾아냅니다.

- 논문: GRAG: 그래프 검색-증강 세대

- 프로젝트: https://github.com/HuieL/GRAG

기존의 RAG 모델은 복잡한 그래프 구조의 데이터를 처리할 때 텍스트와 데이터베이스의 위상 정보 사이의 연결을 무시하기 때문에 성능 병목 현상이 발생하는데, GRAG는 하위 그래프 구조의 중요성을 강조함으로써 성능을 크게 개선하고 검색 및 생성 과정의 착시 현상을 줄입니다.

2024年度RAG清单,RAG应用策略100+

(19) 카멜-그래프RAG [왼쪽 및 오른쪽]

한 손으로 뺨을 때린 다음 다른 손으로 빠르게 연속으로 때립니다.한쪽 눈은 미스트랄로 텍스트를 스캔하여 정보를 추출하고, 다른 쪽 눈은 Neo4j로 관계망을 엮어냅니다. 검색할 때 왼쪽 눈과 오른쪽 눈이 함께 작동하여 유사점을 찾고 트레일 맵을 따라 추적하여 보다 포괄적이고 정확한 검색을 수행합니다.

- 프로젝트: https://github.com/camel-ai/camel

Camel-GraphRAG는 미스트랄 모델을 사용해 주어진 콘텐츠에서 지식을 추출하고 지식 구조를 구성한 다음, 이 정보를 Neo4j 그래프 데이터베이스에 저장하는 것을 지원합니다. 그런 다음 벡터 검색과 지식 그래프 검색을 결합한 하이브리드 접근 방식을 사용하여 저장된 지식을 쿼리하고 탐색합니다.

2024年度RAG清单,RAG应用策略100+

(20) G-RAG [스트링거]

문 두드리는 사람(관용구); 무화과나무, 사람들의 문제에 대한 기적의 치료법혼자서 정보를 검색하는 대신 각 지식에 대한 관계 네트워크를 구축할 수 있습니다. 사교계 인사처럼 각 친구가 무엇을 잘하는지 알 수 있을 뿐만 아니라 누가 누구와 친구인지도 알 수 있으므로 답을 찾을 때 바로 그 흔적을 따라갈 수 있습니다.

- Paper: 연결하는 것을 잊지 마세요! 그래프 기반 재랭킹으로 RAG 개선하기

RAG는 문서와 질문의 맥락 사이의 관계를 처리하는 데 여전히 어려움이 있으며, 질문과의 관련성이 명확하지 않거나 문서에 일부 정보만 포함되어 있는 경우 모델을 효과적으로 활용하지 못할 수 있습니다. 또한 문서 간의 연관성을 합리적으로 추론하는 방법도 중요한 문제로, G-RAG는 RAG 리트리버와 리더 사이에 그래프 신경망(GNN) 기반의 재배열을 구현합니다. 이 방법은 추상적인 의미 표현 그래프를 통해 문서 간의 연결 정보와 의미 정보를 결합하여 RAG에 컨텍스트 기반 랭킹을 제공합니다.

2024年度RAG清单,RAG应用策略100+

(21) LLM-그래프 빌더 [무버]

포터: 혼란스러운 텍스트에 이해하기 쉬운 집을 지어주세요. 단순히 가지고 다니는 것이 아니라 강박증 환자처럼 각 지식 포인트에 라벨을 붙이고, 관계선을 그리고, 마지막으로 Neo4j의 데이터베이스에 잘 정돈된 지식 빌딩을 구축하세요.

- 프로젝트: https://github.com/neo4j-labs/llm-graph-builder

Neo4j에서 비정형 데이터를 지식 그래프로 변환할 수 있는 Neo4j 오픈 소스 LLM 기반 지식 그래프 추출 생성기. 대규모 모델을 사용하여 비정형 데이터에서 노드, 관계 및 해당 속성을 추출합니다.

2024年度RAG清单,RAG应用策略100+

(22) MRAG [문어]

문어문제를 해결하기 위해 머리 하나만 키우는 대신 문어처럼 여러 개의 촉수를 키우고 각 촉수가 각도를 잡는 역할을 담당합니다. 간단히 말해, 이것은 "멀티태스킹"의 AI 버전입니다.

- 논문: 멀티 헤드 RAG: LLM을 사용한 다중 시점 문제 해결

- 프로젝트: https://github.com/spcl/MRAG

기존 RAG 솔루션은 콘텐츠가 상당히 다른 여러 문서에 액세스해야 하는 쿼리에 초점을 맞추지 않습니다. 이러한 쿼리는 자주 발생하지만 임베딩 공간에서 이러한 문서들의 임베딩이 멀리 떨어져 있어 모든 문서를 검색하기가 어렵기 때문에 문제가 됩니다. 이 백서에서는 간단하지만 강력한 아이디어로 이 격차를 메우는 것을 목표로 하는 새로운 방식인 멀티헤드 RAG(MRAG)를 소개합니다. 트랜스포머 디코더 레이어가 아닌 멀티 헤드 주의 레이어의 활성화는 다면적인 문서를 캡처하는 데 핵심적인 역할을 합니다. 그 원동력은 서로 다른 주의 헤드가 서로 다른 데이터 측면을 캡처하는 방법을 학습할 수 있기 때문입니다. 해당 활성화 기능을 활용하면 데이터 항목과 쿼리의 다양한 측면을 나타내는 임베딩이 생성되어 복잡한 쿼리의 검색 정확도가 향상됩니다.

2024年度RAG清单,RAG应用策略100+

(23) PlanRAG [전략가]

전략가완전한 전투 계획을 수립한 다음 규칙과 데이터에 따라 상황을 분석하고 최종적으로 최상의 전술 결정을 내립니다.

- 논문: PlanRAG: 의사 결정권자로서 생성적 대규모 언어 모델을 위한 계획 후 검색 증강 생성

- 프로젝트: https://github.com/myeon9h/PlanRAG

PlanRAG는 대규모 언어 모델을 사용하여 복잡한 데이터 분석 의사 결정 문제를 해결하는 방법, 즉 의사 결정 문제 Q, 비즈니스 규칙 R, 데이터베이스 D를 기반으로 최선의 의사 결정을 내리는 의사 결정 QA 작업을 정의하여 먼저 의사 결정 계획을 생성한 다음 검색기가 데이터 분석을 위한 쿼리를 생성하는 방법을 연구합니다.

2024年度RAG清单,RAG应用策略100+

(24) FoRAG [작가]

작가에세이는 에세이의 틀을 잡아주는 개요를 작성한 후 문단별로 내용을 확장하고 다듬어 나갑니다. 또한 세심한 사실 확인과 수정 제안을 통해 모든 세부 사항을 완벽하게 다듬고 작품의 품질을 보장하는 '편집자'가 있습니다.

- 논문: FoRAG: 사실에 최적화된 검색 증강 생성으로 웹에서 향상된 긴 형식의 질의응답 제공

FoRAG는 새로운 개요 향상 생성기를 제안하는데, 이 생성기는 개요 템플릿을 사용하여 첫 번째 단계에서 사용자 쿼리와 컨텍스트에 따라 답변 개요 초안을 작성하고 두 번째 단계에서 생성된 개요를 기반으로 각 관점을 확장하여 최종 답변을 구성합니다. 잘 설계된 이중 세분화된 RLHF 프레임워크에 기반한 사실적 최적화 접근 방식도 제안되는데, 이는 사실적 평가와 보상 모델링의 두 핵심 단계에 세분화된 설계를 도입하여 보다 밀도 있는 보상 신호를 제공합니다.

2024年度RAG清单,RAG应用策略100+

(25) 멀티 메타-RAG [메타 스크리너]

메타 필터숙련된 데이터 관리자처럼 여러 필터링 메커니즘을 사용해 방대한 양의 정보에서 가장 관련성이 높은 콘텐츠를 찾아냅니다. 단순히 표면만 보는 것이 아니라 문서의 '신원 태그'(메타데이터)를 분석하여 찾은 모든 정보가 실제로 주제에 맞는지 확인합니다.

- 논문: Multi-Meta-RAG: LLM 추출 메타데이터로 데이터베이스 필터링을 사용하여 멀티홉 쿼리를 위한 RAG 개선하기

- 프로젝트: https://github.com/mxpoliakov/multi-meta-rag

Multi-Meta-RAG는 데이터베이스 필터링과 LLM에서 추출한 메타데이터를 사용하여 RAG가 문제와 관련된 다양한 소스에서 관련 문서를 선택할 수 있도록 개선합니다.

2024年度RAG清单,RAG应用策略100+

(26) RankRAG [올 라운더]

올라운더약간의 훈련만 받으면 '심판'과 '경쟁자'가 모두 될 수 있습니다. 재능 있는 운동선수처럼 약간의 코칭만 받으면 여러 종목에서 프로를 능가하면서도 모든 기술을 마스터할 수 있습니다.

- 논문: RankRAG: 컨텍스트 랭킹과 검색 증강 세대의 통합을 통한 LLM의 통합

RankRAG는 문맥 랭킹과 답변 생성을 모두 수행하도록 지침을 통해 단일 LLM을 미세 조정합니다. 소량의 랭킹 데이터를 학습 데이터에 추가함으로써 명령어로 미세 조정된 LLM은 놀라울 정도로 잘 작동하며, 심지어 대량의 랭킹 데이터에 특별히 미세 조정된 동일한 LLM을 포함한 기존 전문가 랭킹 모델보다 성능이 더 뛰어납니다. 이러한 설계는 기존 RAG 시스템에서 여러 모델의 복잡성을 단순화할 뿐만 아니라 모델 파라미터를 공유함으로써 문맥 관련성 판단과 정보 활용의 효율성을 향상시킵니다.

2024年度RAG清单,RAG应用策略100+

(27) GraphRAG-Local-UI [수정자]

튜너누구나 쉽게 운전할 수 있는 친숙한 대시보드를 통해 스포츠카를 현지 도로에서 실용적인 자동차로 탈바꿈시킵니다.

- 프로젝트: https://github.com/severian42/GraphRAG-Local-UI

GraphRAG-Local-UI는 대화형 사용자 인터페이스의 풍부한 에코시스템을 갖춘 Microsoft 기반 GraphRAG의 로컬 모델 적용 버전입니다.

2024年度RAG清单,RAG应用策略100+

(28) ThinkRAG [작은 비서]

주니어 비서이동 중인 작은 비서처럼 방대한 양의 지식을 포켓 사이즈에 압축하여 큰 장치 없이도 답을 찾을 수 있도록 도와줍니다.

- 프로젝트: https://github.com/wzdavid/ThinkRAG

ThinkRAG 빅 모델 검색 강화 세대 시스템은 랩톱에 쉽게 배포하여 로컬 지식 기반에 대한 지능적인 퀴즈를 만들 수 있습니다.

2024年度RAG清单,RAG应用策略100+

(29) 나노 그래프 래그[경부하]

불을 켜다, 짐을 싸서 전투에 나가다(관용구); 무화과나무, 쉽게 여행하다.: 운동선수가 라이트를 챙기듯 번거로운 장비는 간소화했지만 핵심 기능은 그대로 유지했습니다.

- 프로젝트: https://github.com/gusye1234/nano-graphrag

Nano-GraphRAG는 핵심 기능은 그대로 유지하면서 더 작고, 더 빠르고, 더 간결한 GraphRAG입니다.

(30) RAGFlow-GraphRAG [내비게이터]

내비게이터(비행기 또는 보트에서)질문과 답변의 미로에서 지름길 찾기 : 먼저 지도를 그려서 모든 지식의 지점을 표시하고, 중복되는 이정표를 병합하고, 길을 묻는 사람들이 먼 길을 돌아가지 않도록 지도를 구체적으로 슬림화하여 질문과 답변의 미로에서 지름길을 찾도록 합니다.

- 프로젝트: https://github.com/infiniflow/ragflow

RAGFlow는 GraphRAG 구현을 바탕으로 문서 전처리 단계에서 지식 그래프 구성을 선택적 옵션으로 도입하여 QFS Q&A 시나리오를 제공하고, 엔티티 강조 해제 및 토큰 최적화와 같은 개선 사항을 도입합니다.

2024年度RAG清单,RAG应用策略100+

(31) 의료-그래프-RAG [디지털 닥터]

디지털 닥터경험 많은 의료 컨설턴트처럼 복잡한 의학 지식이 도표로 명확하게 정리되어 있으며, 진단 제안은 허공에서 만들어지는 것이 아니라 정당화되어 있어 의사와 환자 모두 각 진단의 근거를 확인할 수 있습니다.

- 논문: 의료용 그래프 RAG: 그래프 검색 증강 생성을 통한 안전한 의료용 대용량 언어 모델을 향하여

- 프로젝트: https://github.com/SuperMedIntel/Medical-Graph-RAG

MedGraphRAG는 의학에서 LLM을 적용할 때 발생하는 문제를 해결하기 위해 설계된 프레임워크입니다. 그래프 기반 접근 방식을 사용하여 진단 정확도, 투명성 및 임상 워크플로우로의 통합을 개선합니다. 이 시스템은 신뢰할 수 있는 출처에서 지원되는 응답을 생성하여 대량의 의료 데이터에서 컨텍스트를 유지하는 데 따르는 어려움을 해결함으로써 진단 정확도를 향상시킵니다.

2024年度RAG清单,RAG应用策略100+

(32) 하이브리드랙 [한방 복합 포뮬러]

한약 처방한의학(TCM)과 마찬가지로 한 가지 약은 여러 가지 약을 조합하는 것만큼 효과적이지 않습니다. 벡터 데이터베이스는 빠른 검색을 담당하고 지식 그래프는 관계형 논리를 보완하여 서로의 강점을 보완합니다.

- 논문: HybridRAG: 효율적인 정보 추출을 위한 지식 그래프와 벡터 검색 증강 생성의 통합

금융 문서에서 정보를 추출하기 위한 질문과 답변 시스템을 개선하기 위해 지식 그래프 RAG 기술(GraphRAG)과 VectorRAG 기술을 결합한 새로운 접근 방식인 HybridRAG는 정확하고 문맥에 맞는 답변을 생성하는 것으로 나타났습니다. 검색 및 생성 단계에서 벡터 데이터베이스와 지식 그래프에서 문맥을 검색하는 HybridRAG는 검색 정확도와 답변 생성 측면에서 기존의 VectorRAG 및 GraphRAG보다 성능이 뛰어납니다.

2024年度RAG清单,RAG应用策略100+

(33) W-RAG [진화적 검색]

진화 검색스스로 진화하는 훌륭한 검색 엔진처럼 큰 모델에서 기사의 단락을 점수화하여 무엇이 좋은 답변인지 학습하고 핵심 정보를 찾는 능력을 점진적으로 향상시킵니다.

- 논문: W-RAG: 개방형 도메인 질문 답변을 위한 RAG의 약하게 감독된 고밀도 검색

- 프로젝트: https://github.com/jmnian/weak_label_for_rag

오픈 도메인 퀴즈에서 약하게 감독되는 고밀도 검색 기술은 대규모 언어 모델의 순위 지정 기능을 활용하여 고밀도 검색기 학습을 위한 약하게 레이블이 지정된 데이터를 생성합니다. 대규모 언어 모델이 질문과 각 단락을 기반으로 정답을 생성할 확률을 평가하여, 정답을 통과할 확률을 계산합니다. BM25 검색된 상위 K 구절의 순위가 다시 매겨집니다. 그런 다음 가장 순위가 높은 구절은 집중적인 검색을 위한 긍정적인 훈련 예시로 사용됩니다.

2024年度RAG清单,RAG应用策略100+

(34) RAGChecker [품질 검사관]

품질 검사관단순히 정답의 옳고 그름을 따지는 것이 아니라 엄격한 시험관처럼 정보 검색부터 최종 답안 작성까지 심도 있게 검토하여 상세한 채점 보고서를 제공하고 구체적인 개선이 필요한 부분을 지적합니다.

- 논문: 검색 증강 세대를 진단하기 위한 세분화된 프레임워크, RAGChecker: 검색 증강 세대 진단을 위한 세분화된 프레임워크

- 프로젝트: https://github.com/amazon-science/RAGChecker

RAGChecker의 진단 도구는 RAG 시스템에 대한 세밀하고 종합적이며 신뢰할 수 있는 진단 보고서를 제공하고 추가적인 성능 개선을 위한 실행 가능한 방향을 제시합니다. 시스템의 전반적인 성능을 평가할 뿐만 아니라 검색과 생성이라는 두 가지 핵심 모듈의 성능에 대한 심층적인 분석도 제공합니다.

2024年度RAG清单,RAG应用策略100+

(35) 메타 지식-RAG [학자]

학계학계의 선임 연구원처럼 정보를 수집할 뿐만 아니라 문제에 대해 적극적으로 고민하고 각 문서에 주석을 달고 요약하며 발생 가능한 문제까지 미리 예측합니다. 관련 지식 포인트를 연결하여 지식 네트워크를 형성하므로 학자가 연구 개요를 작성하는 것처럼 쿼리의 깊이와 폭이 더욱 넓어집니다.

- 논문: 증강된 대규모 언어 모델 검색을 위한 메타 지식

메타 지식-RAG(MK 요약)는 기존의 '검색-읽기' 시스템을 보다 발전된 '준비-다시 쓰기-검색-읽기'로 전환하는 새로운 데이터 중심 RAG 워크플로우를 소개합니다. " 프레임워크를 도입하여 지식창고에 대한 도메인 전문가 수준의 이해를 높입니다. 이러한 접근 방식은 각 문서에 대한 메타데이터와 합성 질문 및 답변의 생성과 메타데이터 기반 문서 클러스터링을 위한 새로운 개념의 메타지식 요약의 도입에 의존합니다. 이러한 혁신을 통해 지식창고 전반에서 개인화된 사용자 쿼리 개선과 심층적인 정보 검색이 가능해집니다.

2024年度RAG清单,RAG应用策略100+

(36) 커뮤니티KG-RAG [커뮤니티 탐색]

커뮤니티 탐색커뮤니티 관계망에 익숙한 마법사처럼 지식과 그룹 특성 간의 연관성을 활용하여 특별한 학습 없이도 관련 정보를 정확하게 찾고 신뢰성을 검증하는 데 능숙합니다.

- 논문: CommunityKG-RAG: 고급 검색을 위한 지식 그래프의 커뮤니티 구조 활용 - 사실에 기반한 증강 생성-- 확인

CommunityKG-RAG는 사실 확인 프로세스를 향상시키기 위해 지식 그래프의 커뮤니티 구조와 RAG 시스템을 결합한 새로운 제로 샘플 프레임워크로, 추가 교육 없이 새로운 도메인과 쿼리에 적응할 수 있으며 지식 그래프의 커뮤니티 구조의 멀티홉 특성을 활용하여 정보 검색 정확도와 관련성을 크게 향상시킵니다. 관련성을 크게 향상시킵니다.

2024年度RAG清单,RAG应用策略100+

(37) TC-RAG [메모리 워록]

니모닉 아티스트: 자동 정리 기능이 있는 두뇌를 LLM에 넣으세요. 문제를 풀 때와 마찬가지로 중요한 단계를 초안 용지에 적고 완료되면 지워 버립니다. 암기식 학습이 아니라 기억해야 할 것은 기억하고 잊어야 할 것은 제때 비워두는, 마치 학교 왕따가 자기 방을 정리하는 것처럼요.

- 논문: TC-RAG: 의료용 LLM 시스템에 대한 튜링-컴플리트 RAG의 사례 연구

- 프로젝트: https://github.com/Artessay/TC-RAG

튜링 완전 시스템을 도입해 상태 변수를 관리함으로써 보다 효율적이고 정확한 지식 검색을 실현합니다. TC-RAG는 적응형 검색, 추론 및 계획 기능을 갖춘 메모리 스택 시스템을 활용하여 검색 프로세스의 제어된 중지를 보장할 뿐만 아니라 푸시 앤 팝 작업을 통해 잘못된 지식이 축적되는 것을 완화합니다.

2024年度RAG清单,RAG应用策略100+

(38) RAGLAB [아레나]

아레나과학 실험실의 표준화된 테스트 프로세스처럼 알고리즘이 동일한 규칙에 따라 공정하게 경쟁하고 비교할 수 있도록 허용하면 각각의 새로운 방법을 객관적이고 투명하게 평가할 수 있습니다.

- 논문: RAGLAB: 검색 증강 세대를 위한 모듈형 연구 지향 통합 프레임워크

- 프로젝트: https://github.com/fate-ubw/RAGLab

새로운 RAG 알고리즘 간의 포괄적이고 공정한 비교가 부족하고 오픈 소스 도구의 높은 수준의 추상화로 인해 투명성이 부족하고 새로운 알고리즘과 평가 지표를 개발하는 데 한계가 있습니다.RAGLAB은 6가지 알고리즘을 재현하고 포괄적인 연구 생태계를 구축하는 모듈식 연구 지향 오픈 소스 라이브러리입니다. RAGLAB을 사용하면 6가지 알고리즘을 10개의 벤치마크에서 공정하게 비교하여 연구자가 알고리즘을 효율적으로 평가하고 혁신할 수 있습니다.

2024年度RAG清单,RAG应用策略100+

(39) MemoRAG.

기억력 유지력이 높습니다.필요할 때만 정보를 찾아주는 것이 아니라 전체 지식 기반을 깊이 이해하고 암기하고 있습니다. 사용자가 질문을 하면 이 '슈퍼 브레인'에서 관련 기억을 빠르게 불러와 마치 지식이 풍부한 전문가처럼 정확하고 통찰력 있는 답변을 제공합니다.

- 프로젝트: https://github.com/qhjqhj00/MemoRAG

MemoRAG는 효율적인 초장거리 메모리 모델을 기반으로 구축된 혁신적인 검색 증강 세대(RAG) 프레임워크입니다. 명시적인 정보가 필요한 쿼리를 주로 처리하는 표준 RAG와 달리, MemoRAG는 메모리 모델을 활용해 전체 데이터베이스에 대한 전반적인 이해를 달성합니다. 메모리에서 쿼리별 단서를 불러와 증거 검색을 향상시켜 보다 정확하고 컨텍스트가 풍부한 응답을 생성합니다.

2024年度RAG清单,RAG应用策略100+

(40) OP-RAG [주의 관리]

주의 관리마치 두꺼운 책을 읽는 것과 같아서 모든 세부 사항을 기억할 수는 없지만 핵심 챕터를 표시하는 방법을 아는 사람이 마스터입니다. 무턱대고 읽는 것이 아니라 선배처럼 읽으면서 핵심을 파악하고 필요할 때 표시한 페이지로 바로 넘기는 것입니다.

- 논문: 긴 컨텍스트 언어 모델 시대의 RAG를 방어하며

LLM에서 매우 긴 문맥은 관련 정보에 대한 주의력을 떨어뜨리고 잠재적으로 답변 품질을 저하시킵니다. 긴 문맥의 답변 생성에서 RAG를 다시 살펴보고, 긴 문맥의 질문과 답변 애플리케이션에서 RAG의 성능을 크게 개선하는 순서 보존 검색 강화 생성 메커니즘인 OP-RAG를 제안합니다.

2024年度RAG清单,RAG应用策略100+

(41) AgentRE [지능형 추출]

지능형 추출관계 관찰에 능숙한 사회학자처럼 핵심 정보를 기억할 뿐만 아니라 주도적으로 확인하고 깊이 생각하여 복잡한 관계망을 정확하게 이해합니다. 복잡한 관계에 직면하더라도 여러 관점에서 분석하여 그 의미를 명확히 파악하고 말로만 의미를 부여하는 것을 피할 수 있습니다.

- 논문: AgentRE: 관계 추출에서 복잡한 정보 환경을 탐색하기 위한 에이전트 기반 프레임워크

- 프로젝트: https://github.com/Lightblues/AgentRE

대규모 언어 모델의 메모리, 검색 및 반영 기능을 통합하여 복잡한 장면 관계 추출의 다양한 관계 유형과 단일 문장 내 개체 간의 모호한 관계 문제를 효과적으로 해결하며, AgentRE는 에이전트가 정보를 효율적으로 수집 및 처리하고 RE 성능을 크게 향상시킬 수 있는 세 가지 주요 모듈로 구성되어 있습니다.

2024年度RAG清单,RAG应用策略100+

(42) iText2KG [아키텍트]

건축가조직화된 엔지니어처럼 파편화된 문서를 단계적으로 정보를 정제, 추출, 통합하여 체계적인 지식 네트워크로 변환하며, 사전에 상세한 건축 도면을 준비할 필요가 없고 필요에 따라 유연하게 확장 및 개선할 수 있습니다.

- 논문: iText2KG: 대규모 언어 모델을 사용한 점진적 지식 그래프 구축

- 프로젝트: https://github.com/AuvaLab/itext2kg

iText2KG(증분 지식 그래프 구축)는 LLM(대규모 언어 모델)을 사용하여 원시 문서에서 지식 그래프를 구축하며, 온톨로지의 사전 정의나 광범위한 감독 교육 없이도 네 가지 모듈(문서 정제기, 증분 엔티티 추출기, 증분 관계 추출기, 그래프 통합기)을 통해 증분 지식 그래프를 구축할 수 있습니다.

2024年度RAG清单,RAG应用策略100+

(43) 그래프인사이트 [그래픽 해석]

아틀라스 해석인포그래픽 분석 전문가처럼 중요한 정보를 가장 눈에 잘 띄는 곳에 배치하는 한편, 필요할 때 참고 자료를 참조하여 세부 정보를 추가하고 복잡한 차트를 단계별로 추론하여 AI가 세부 사항을 놓치지 않고 큰 그림을 파악할 수 있도록 합니다.

- 논문: GraphInsight: 그래프 구조 이해를 위한 대규모 언어 모델에서 인사이트 활용하기

그래프인사이트는 매크로 및 마이크로 수준의 그래프 정보에 대한 LLM의 이해를 향상시키기 위한 새로운 프레임워크로, 1) 주요 그래프 정보를 LLM의 메모리 성능이 우수한 위치에 배치하고 2) 메모리 성능이 약한 영역에 경량 외부 지식 기반을 도입하여 검색 증강 생성(RAG)의 아이디어를 활용하는 두 가지 핵심 전략을 기반으로 합니다. 또한 GraphInsight는 다단계 추론이 필요한 복합 그래프 작업을 위해 이 두 가지 전략을 LLM 에이전트 프로세스에 통합하는 방법을 살펴봅니다.

2024年度RAG清单,RAG应用策略100+

(44) LA-RAG [방언 패스]

방언 책각지의 방언에 정통한 언어학자처럼 표준 중국어뿐만 아니라 꼼꼼한 음성 분석과 문맥 이해를 통해 지역 특색이 담긴 억양까지 정확하게 파악할 수 있어 다른 지역의 사람들과도 장벽 없이 소통할 수 있습니다.

- 논문: LA-RAG: 검색 증강 세대를 통한 LLM 기반 ASR 정확도 향상

LA-RAG는 LLM 기반 ASR을 위한 새로운 검색 증강 생성(RAG) 패러다임으로, 세분화된 토큰 수준의 음성 데이터 저장과 음성-음성 검색 메커니즘을 활용하여 LLM 문맥 학습(ICL) 기능을 통해 ASR 정확도를 향상시킵니다.

2024年度RAG清单,RAG应用策略100+

(45) SFR-RAG [정제된 검색]

간소화된 검색크기는 작지만 기능이 정밀한 세련된 참조 고문처럼 요구 사항을 이해하고 외부 도움을 구하는 방법을 알고 있어 정확하고 효율적인 답변을 보장합니다.

- 논문: SFR-RAG: 상황에 충실한 LLM을 향하여

SFR-RAG는 문맥 기반 생성에 초점을 맞추고 착각을 최소화하는 명령어로 미세 조정된 작은 언어 모델입니다. 인수의 수를 줄이면서도 고성능을 유지하는 데 중점을 둔 SFR-RAG 모델에는 외부 도구와 동적으로 상호 작용하여 고품질의 컨텍스트 정보를 검색할 수 있는 함수 호출 기능이 포함되어 있습니다.

2024年度RAG清单,RAG应用策略100+

(46) FlexRAG [압축 전문가]

압축 전문가긴 연설을 간결한 요약으로 압축하고 필요에 따라 압축 비율을 유연하게 조정할 수 있어 핵심 정보가 손실되지 않고 저장 및 처리 비용을 절감할 수 있습니다. 마치 두꺼운 책을 간결한 독서 노트로 다듬는 것과 같습니다.

- 논문: 더 가볍고 더 나은 검색: 검색 증강 세대를 위한 유연한 컨텍스트 적응을 향하여

FlexRAG가 검색한 컨텍스트는 LLM에 의해 인코딩되기 전에 컴팩트한 임베딩으로 압축됩니다. 동시에 이러한 압축 임베딩은 다운스트림 RAG의 성능을 향상시키도록 최적화되며, FlexRAG의 핵심 기능은 다양한 압축률을 효율적으로 지원하고 중요한 컨텍스트를 선택적으로 유지할 수 있는 유연성입니다. 이러한 기술 설계 덕분에 FlexRAG는 우수한 생성 품질을 달성하는 동시에 운영 비용을 크게 절감할 수 있습니다. 다양한 Q&A 데이터 세트에 대한 포괄적인 실험을 통해 RAG 시스템을 위한 비용 효율적이고 유연한 솔루션으로서의 접근 방식을 검증했습니다.

2024年度RAG清单,RAG应用策略100+

(47) CoTKR [아틀라스 번역]

아틀라스 번역인내심 있는 교사처럼 지식의 맥락을 이해한 다음 단순히 반복하는 것이 아니라 단계별로 설명하며 깊이 있게 전달합니다. 동시에 학생들로부터 피드백을 수집하여 자신의 설명 방식을 개선함으로써 지식을 보다 명확하고 효과적으로 전달할 수 있습니다.

- 논문: CoTKR: 복잡한 지식 그래프 질문 답변을 위한 생각의 사슬 강화 지식 재작성 기술

- 프로젝트: https://github.com/wuyike2000/CoTKR

추론 경로와 해당 지식을 번갈아 생성하여 단일 단계 지식 재작성의 한계를 극복하는 CoTKR(생각의 연쇄 강화 지식 재작성) 접근 방식입니다. 또한 지식 재작성기와 QA 모델 간의 선호도 차이를 해소하기 위해 Q&A 피드백을 통해 선호도를 조정하는 학습 전략을 제안하여 QA 모델의 피드백을 활용함으로써 지식 재작성기를 더욱 최적화합니다.

2024年度RAG清单,RAG应用策略100+

(48) Open-RAG [싱크탱크]

저장소거대한 언어 모델을 독립적으로 사고하고 협력할 수 있는 전문가 그룹으로 세분화하고, 특히 노련한 싱크탱크처럼 중요한 순간에 정보를 조회할지 여부를 알고 참과 거짓 정보를 구분하는 데 능숙해야 합니다.

- 논문: Open-RAG: 오픈 소스 대규모 언어 모델을 사용한 향상된 검색 증강 추론

- 프로젝트: https://github.com/ShayekhBinIslam/openrag

Open-RAG는 대규모 언어 모델을 오픈소스화하여 임의로 밀도가 높은 대규모 언어 모델을 단일 홉 및 다중 홉 쿼리를 포함한 복잡한 추론 작업을 처리할 수 있는 매개변수 효율적인 희박한 전문가 혼합(MoE) 모델로 변환함으로써 RAG의 추론을 개선하며, OPEN-RAG는 관련성이 있어 보이지만 오해의 소지가 있는 어려운 간섭 용어에 대처하도록 모델을 고유하게 훈련시킵니다.

2024年度RAG清单,RAG应用策略100+

(49) TableRAG [엑셀 전문가]

Excel 전문가피벗 테이블을 능숙하게 사용하여 필요한 핵심 정보를 빠르게 찾고 추출하는 것처럼, 단순히 표 형식의 데이터를 보는 것을 넘어 헤더 및 셀 차원의 데이터를 이해하고 검색하는 방법을 알고 있어야 합니다.

- 논문: TableRAG: 언어 모델을 사용한 백만 토큰 테이블 이해

TableRAG는 테이블 이해를 위해 특별히 검색이 강화된 생성 프레임워크를 설계하여 쿼리 확장을 통해 스키마와 셀 검색을 결합하여 언어 모델에 정보를 제공하기 전에 핵심 데이터를 정확히 찾아내어 보다 효율적인 데이터 인코딩과 정확한 검색을 가능하게 하고, 힌트 길이를 획기적으로 단축하고 정보 손실을 줄입니다.

2024年度RAG清单,RAG应用策略100+

(50) LightRAG [스파이더맨]

스파이더맨지식의 거미줄을 민첩하게 탐색하고, 점과 점 사이의 실타래를 잡을 뿐만 아니라 웹을 사용하여 실타래를 따라갑니다. 천리안 사서처럼 각 책이 어디에 있는지 알 뿐만 아니라 어떤 책을 함께 읽어야 할지도 알 수 있습니다.

- 논문: LightRAG: 간단하고 빠른 검색-증강 세대

- 프로젝트: https://github.com/HKUDS/LightRAG

이 프레임워크는 그래프 구조를 텍스트 색인 및 검색 프로세스에 통합합니다. 이 혁신적인 프레임워크는 저수준 및 고급 지식 검색 모두에서 포괄적인 정보 검색을 향상시키는 2계층 검색 시스템을 채택하고 있습니다. 또한 그래프 구조와 벡터 표현을 결합하면 관련 엔터티와 그 관계를 효율적으로 검색할 수 있어 응답 시간을 크게 개선하는 동시에 문맥적 관련성을 유지할 수 있습니다. 이러한 기능은 새로운 데이터를 적시에 통합하는 증분 업데이트 알고리즘으로 더욱 강화되어 급변하는 데이터 환경에서도 시스템이 효과적이고 신속하게 대응할 수 있도록 합니다.

2024年度RAG清单,RAG应用策略100+

(51) AstuteRAG [현명한 판사]

현명한 판사외부 정보를 경계하고, 검색 결과를 믿지 않으며, 자신이 축적한 지식을 잘 활용하고, 정보의 진위를 가려내고, 선임 판사처럼 여러 당사자의 증거를 종합하여 결론을 내리는 것입니다.

- 논문: Astute RAG: 대규모 언어 모델을 위한 불완전한 검색 증강 및 지식 충돌 극복하기

LLM의 내부 지식에서 정보를 적응적으로 추출하여 외부 검색 결과와 결합하고 정보의 신뢰도에 따라 답변을 확정함으로써 시스템의 견고성과 신뢰성이 향상됩니다.

2024年度RAG清单,RAG应用策略100+

(52) 터보래그 [속기 마스터]

마스터 속기사: 미리 숙제를 하고 작은 공책에 모든 답을 적으세요. 사전 시험 습격 학교 괴롭힘처럼 임상 걸쇠가 아니라 잘못된 책에 미리 일반적인 질문을 미리하십시오. 직접 사용해야 할 때는 그 자리에서 한 번 추론해야 할 때마다 저장하십시오.

- 논문: TurboRAG: 청크 텍스트에 대한 사전 계산된 KV 캐시를 사용한 검색 증강 생성 가속화

- 프로젝트: https://github.com/MooreThreads/TurboRAG

TurboRAG는 문서의 KV 캐시를 미리 계산하고 오프라인에 저장함으로써 RAG 시스템의 추론 패러다임을 최적화합니다. 기존 접근 방식과 달리 TurboRAG는 더 이상 추론할 때마다 이러한 KV 캐시를 계산하지 않고, 대신 사전 계산된 캐시를 검색하여 효율적으로 사전 채우므로 반복적인 온라인 계산이 필요하지 않습니다. 이 접근 방식은 계산 오버헤드를 크게 줄이고 정확도를 유지하면서 응답 시간을 단축합니다.

2024年度RAG清单,RAG应用策略100+

(53) StructRAG [주최자]

주최자복잡한 정보를 옷장 정리하듯 카테고리로 정리하세요. 학교 선생님이 사람의 마음을 모방하는 것처럼 암기 대신 마인드맵을 먼저 그려보세요.

- 논문: StructRAG: 추론 시간 하이브리드 정보 구조화를 통한 LLM의 지식 집약적 추론 강화

- 프로젝트: https://github.com/Li-Z-Q/StructRAG

인간이 지식 집약적 추론을 할 때 원시 정보를 구조화된 지식으로 변환한다는 인지 이론에서 영감을 얻은 이 프레임워크는 당면한 작업의 특정 요구 사항에 따라 가장 적절한 형식으로 구조화된 지식을 구성하고 활용하는 하이브리드 정보 구조화 메커니즘을 도입합니다. 인간과 유사한 사고 과정을 모방함으로써 지식 집약적 추론 작업에서 LLM의 성능을 향상시킵니다.

2024年度RAG清单,RAG应用策略100+

(54) VisRAG [불의 눈]

안목 있는 눈단어는 이미지를 표현하는 특별한 형태일 뿐이라는 것을 마침내 깨달았습니다. 눈을 뜬 독자처럼 더 이상 단어 하나하나를 파싱하지 않고 전체 그림을 직접 '보는' 것입니다. OCR 대신 카메라를 사용하여 "사진은 천 단어의 가치가 있다"는 본질을 배웠습니다.

- 논문: VisRAG: 멀티 모달리티 문서에 대한 비전 기반 검색 증강 세대

- 프로젝트: https://github.com/openbmb/visrag

문서를 이미지로 직접 임베드하고 검색하는 시각 언어 모델(VLM) 기반 RAG 프로세스를 구축하여 생성 성능을 향상시켰습니다. 기존의 텍스트 RAG와 비교했을 때, VisRAG는 구문 분석 중 정보 손실을 방지하고 원본 문서의 정보를 보다 포괄적으로 보존합니다. 실험 결과, 검색과 생성 단계 모두에서 VisRAG가 25-391 TP3 T의 엔드투엔드 성능 향상으로 기존 RAG보다 뛰어난 성능을 보였습니다. VisRAG는 학습 데이터를 효과적으로 활용할 뿐만 아니라 강력한 일반화 기능도 입증하여 멀티모달 문서 RAG에 이상적인 선택이 될 수 있습니다.

2024年度RAG清单,RAG应用策略100+

(55) 에이전티그래프 [지식 관리자]

지식 관리자대화형 사서처럼 일상적인 커뮤니케이션을 통해 지식을 정리하고 발표할 수 있도록 도와주며, 질문에 답하고 정보를 업데이트할 준비가 되어 있는 어시스턴트 팀과 함께 쉽고 자연스럽게 지식을 관리할 수 있습니다.

- 논문: AGENTiGraph: 개인 데이터를 활용하는 LLM 기반 챗봇을 위한 대화형 지식 그래프 플랫폼

AGENTiGraph는 자연어 상호작용을 통한 지식 관리 플랫폼입니다. 지식 추출, 통합 및 실시간 시각화를 통합하며, 다중 지능 아키텍처를 사용하여 사용자 의도를 동적으로 해석하고 작업을 관리하며 새로운 지식을 통합하여 변화하는 사용자 요구와 데이터 컨텍스트에 적응할 수 있도록 합니다.

2024年度RAG清单,RAG应用策略100+

(56) RuleRAG [규칙 따르기]

나침반을 따라 정해진 사각형으로 가다(관용구); 규칙을 유연하게 따르다.AI에게 규칙을 가지고 일을 하도록 가르치는 것은 새로운 사람을 데려와서 먼저 직원 핸드북을 주는 것과 같습니다. 목적 없이 학습하는 것이 아니라 먼저 규칙과 예를 설명한 다음 학생 스스로 할 수 있도록 하는 엄격한 교사와 같습니다. 이러한 규칙은 근육 기억이 되어 다음에 비슷한 문제가 발생했을 때 자연스럽게 대처하는 방법을 알게 됩니다.

- 논문: RuleRAG: 질문 답변을 위한 언어 모델을 사용한 규칙 기반 검색 증강 생성

- 프로젝트: https://github.com/chenzhongwu20/RuleRAG_ICL_FT

RuleRAG는 언어 모델에 기반한 규칙 안내 검색 강화 생성 방식을 제안하며, 문맥 학습의 예로서 기호적 규칙을 명시적으로 도입하여(RuleRAG - ICL) 검색기가 규칙의 방향으로 논리적으로 관련된 문서를 검색하도록 안내하고 생성기가 동일한 규칙 세트에 따라 정보에 입각한 답변을 생성하도록 균일하게 안내합니다(RuleRAG - FT). 또한 쿼리와 규칙의 조합은 더 나은 규칙 기반 지침 준수를 달성하기 위해 검색기와 생성기를 업데이트하기 위한 감독 미세 조정 데이터로 추가적으로 사용될 수 있으며(RuleRAG - FT), 이를 통해 더 많은 지원 결과를 검색하고 더 수용 가능한 답변을 생성할 수 있습니다.

2024年度RAG清单,RAG应用策略100+

(57) Class-RAG [심사위원]

judge엄격한 조항에 의존해 사건을 판단하기보다는 끊임없이 확장되는 법학 라이브러리를 통해 판결을 검토합니다. 노련한 판사답게 양장본 법전을 손에 들고 수시로 최신 판례를 읽으며 판결의 온도와 규모를 모두 갖춥니다.

- 논문: Class-RAG: 검색 증강 생성을 통한 콘텐츠 조정

콘텐츠 심사 분류기는 생성형 AI의 보안에 매우 중요합니다. 그러나 안전한 콘텐츠와 안전하지 않은 콘텐츠 사이의 미묘한 차이를 구분하기 어려운 경우가 많습니다. 기술이 널리 보급됨에 따라 위험을 해결하기 위해 모델을 지속적으로 미세 조정하는 것이 점점 더 어려워지고 비용이 많이 듭니다. 이를 위해 검색 기반을 동적으로 업데이트하여 즉각적인 위험 완화를 달성하는 Class-RAG 접근 방식을 제안합니다. Class-RAG는 기존의 미세 조정 모델보다 더 유연하고 투명하며 분류 및 공격 저항 측면에서 더 나은 성능을 발휘합니다. 또한 검색 기반을 확장하면 적은 비용으로 감사 성능을 효과적으로 개선할 수 있는 것으로 나타났습니다.

2024年度RAG清单,RAG应用策略100+

(58) 셀프 래그 [반사경]

사상가질문에 답할 때 정보를 참고할 뿐만 아니라 자신의 답변이 정확하고 완전한지 생각하고 확인합니다. 신중한 학자처럼 '말하면서 생각하기'를 통해 각 관점이 확실한 증거에 의해 뒷받침되도록 합니다.

- 논문: Self-RAG: 자기 성찰을 통한 검색, 생성, 비평 학습하기

- 프로젝트: https://github.com/AkariAsai/self-rag

Self-RAG는 검색과 자기 반성을 통해 언어 모델의 품질과 정확성을 향상시킵니다. 이 프레임워크는 필요에 따라 구절을 적응적으로 검색하고 반사 마커라는 특수 마커를 사용하여 검색된 구절과 자체 생성 콘텐츠를 생성하고 반영할 수 있는 단일 임의의 언어 모델을 학습시킵니다. 반사적 마커를 생성하면 추론 단계에서 언어 모델을 제어할 수 있으므로 다양한 작업 요구 사항에 맞게 동작을 조정할 수 있습니다.

2024年度RAG清单,RAG应用策略100+

(59) SimRAG [독학]

자수성가한 천재전문 분야를 접했을 때 스스로 질문하고 답하는 연습을 반복하여 전문 지식에 익숙해지듯, 꾸준한 연습을 통해 전문 지식 보유량을 늘리세요.

- 논문: SimRAG: 대규모 언어 모델을 전문 도메인에 적용하기 위한 자체 개선 검색 증강 세대

SimRAG는 특정 도메인에 대한 질문과 답변 및 질문 생성의 공동 역량을 갖춘 LLM을 양성하는 자가 훈련 방법입니다. 지식을 제대로 이해한 경우에만 좋은 질문을 할 수 있습니다. 이 두 가지 기능은 서로를 보완하여 모델이 전문 지식을 더 잘 이해할 수 있도록 도와줍니다. LLM은 먼저 지침 따르기, 질의응답 및 관련 데이터 검색 측면에서 미세 조정됩니다. 그런 다음 동일한 LLM이 라벨이 지정되지 않은 말뭉치에서 다양한 도메인 관련 질문을 생성하도록 유도하고, 고품질 합성 예시를 유지하기 위한 추가 필터링 전략을 사용합니다. 이러한 합성 예시를 활용함으로써 LLM은 도메인별 RAG 작업에서 성능을 향상시킬 수 있습니다.

2024年度RAG清单,RAG应用策略100+

(60) 청크 래그 [마스터에서 발췌]

책에서 발췌한 내용을 가져오는 사람긴 기사를 작은 단락으로 나눈 다음, 요점을 놓치거나 관련 없는 콘텐츠에 방해받지 않고 전문가의 눈으로 가장 관련성이 높은 부분을 골라냅니다.

- 논문: ChunkRAG: RAG 시스템을 위한 새로운 LLM-청크 필터링 방법

ChunkRAG는 '청크'가 문서의 작은 일관된 부분을 나타내는 청크 수준에서 검색된 정보를 평가하고 필터링함으로써 RAG 시스템의 프레임워크를 향상시키기 위해 LLM 기반 청크 필터링 접근 방식을 제안합니다. 이 접근 방식은 시맨틱 청킹을 사용하여 문서를 일관된 부분으로 나누고 대규모 언어 모델을 기반으로 한 관련성 점수를 사용하여 각 청크가 사용자 쿼리와 얼마나 잘 일치하는지 평가합니다. 생성 단계 전에 관련성이 낮은 청크를 걸러냄으로써 착각을 크게 줄이고 사실 정확도를 향상시킵니다.

2024年度RAG清单,RAG应用策略100+

(61) FastGraphRAG [레이더]

레이더(외래어): Google 페이지 순위와 마찬가지로 지식창고에 인기 목록을 지정하세요. 소셜 네트워크의 오피니언 리더처럼 더 많은 사람들이 팔로우할수록 더 쉽게 눈에 띄게 됩니다. 목적 없이 검색하는 것이 아니라 레이더를 장착한 정찰병처럼 신호가 강한 곳을 찾아다니는 것과 같습니다.

- 프로젝트: https://github.com/circlemind-ai/fast-graphrag

FastGraphRAG는 효율적이고 해석 가능하며 매우 정확한 고속 그래프 검색 증강 생성(FastGraphRAG) 프레임워크를 제공합니다. 이 프레임워크는 지식 그래프 탐색 프로세스에 PageRank 알고리즘을 적용하여 가장 관련성이 높은 지식 노드를 빠르게 찾아냅니다. PageRank는 노드의 중요도 점수를 계산함으로써 GraphRAG가 지식 그래프에서 정보를 보다 지능적으로 필터링하고 정렬할 수 있게 해줍니다. 이는 방대한 양의 데이터에서 핵심 정보를 빠르게 찾을 수 있는 '중요도 레이더'를 GraphRAG에 장착하는 것과 같습니다.

2024年度RAG清单,RAG应用策略100+

(62) AutoRAG [튜너]

튜너RAG는 추측이 아닌 과학적인 테스트를 통해 최고의 사운드를 찾아내는 숙련된 튜너입니다. 믹서가 다양한 오디오 장비를 테스트하여 가장 조화로운 '재생 솔루션'을 찾는 것처럼 RAG의 다양한 조합을 자동으로 시도합니다.

- 논문: AutoRAG: 검색 증강 생성 파이프라인의 최적화를 위한 자동화된 프레임워크

- 프로젝트: https://github.com/Marker-Inc-Korea/AutoRAG_ARAGOG_Paper

AutoRAG 프레임워크는 주어진 데이터 세트에 적합한 RAG 모듈을 자동으로 식별하고 해당 데이터 세트에 대한 최적의 RAG 모듈 조합을 탐색하고 근사치를 구합니다. 다양한 RAG 설정을 체계적으로 평가하여 기술 선택을 최적화하는 이 프레임워크는 RAG 기술 선택을 최적화하고 RAG 시스템의 효율성과 확장성을 개선하기 위해 광범위한 실험을 수행하는 기존 머신 러닝의 AutoML 방식과 유사합니다.

2024年度RAG清单,RAG应用策略100+

(63) Plan x RAG [프로젝트 매니저]

프로젝트 관리자실행에 앞서 계획을 세우고, 큰 작업을 작은 작업으로 나누고, 여러 명의 '전문가'가 동시에 작업할 수 있도록 배치합니다. 각 전문가는 자신의 영역을 담당하고 프로젝트 관리자는 마지막에 결과를 요약하는 역할을 맡습니다. 이 접근 방식은 더 빠르고 정확할 뿐만 아니라 각 결론의 출처에 대한 명확한 설명을 제공합니다.

- 논문: 계획 × RAG: 계획에 따른 검색 증강 생성

Plan×RAG는 기존 RAG 프레임워크의 "검색 - 추론" 패러다임을 "계획 - 검색" 패러다임으로 확장한 새로운 프레임워크로, 추론 계획을 방향성 비순환 그래프(DAG)로 공식화하여 쿼리를 다음과 같이 분해하는 새로운 프레임워크입니다. Plan×RAG는 추론 계획을 방향성 비순환 그래프(DAG)로 공식화하여 쿼리를 상호 연관된 원자 하위 쿼리로 분해합니다. 답변 생성은 DAG 구조를 따르며, 병렬 검색 및 생성을 통해 효율성을 크게 향상시킵니다. 최신 RAG 솔루션은 광범위한 데이터 생성과 언어 모델(LM)의 미세 조정이 필요하지만, Plan×RAG는 고정된 LM을 플러그 앤 플레이 전문가로 통합하여 고품질의 답변을 생성합니다.

2024年度RAG清单,RAG应用策略100+

(64) 서브그래프RAG [로케이터]

포지셔너건초 더미에서 바늘을 찾는 대신 작은 지식 지도를 정확하게 그려서 AI가 빠르게 답을 찾을 수 있도록 합니다.

- 논문: 단순한 것이 효과적이다: 지식 그래프 기반 검색 증강 생성에서 그래프와 대규모 언어 모델의 역할

- 프로젝트: https://github.com/Graph-COM/SubgraphRAG

SubgraphRAG는 하위 그래프를 검색하고 추론과 정답 예측을 위해 LLM을 활용함으로써 KG 기반 RAG 프레임워크를 확장합니다. 경량 다층 퍼셉트론이 병렬 삼원 점수 매커니즘과 결합되어 효율적이고 유연한 하위 그래프 검색이 가능하며, 방향 구조 거리를 인코딩하여 검색 효과를 개선합니다. 검색된 하위 그래프의 크기는 쿼리 요구 사항과 다운스트림 LLM의 기능에 맞게 유연하게 조정할 수 있습니다. 이 설계는 모델 복잡성과 추론 기능 간의 균형을 유지하여 확장 가능하고 다양한 검색 프로세스를 가능하게 합니다.

2024年度RAG清单,RAG应用策略100+

(65) 루라그 [연금술사]

연금술사연금술사처럼 방대한 양의 데이터를 명확한 논리적 규칙으로 추출하고 이를 일반 언어로 표현하여 실제 애플리케이션에서 AI를 더 똑똑하게 만들 수 있습니다.

- 논문: RuAG: 대규모 언어 모델을 위한 학습 규칙 증강 생성

은 대량의 오프라인 데이터를 해석 가능한 1차 논리 규칙으로 자동 추출하여 LLM에 주입함으로써 대규모 언어 모델(LLM)의 추론 기능을 향상시키는 것을 목표로 합니다. 이 프레임워크는 몬테카를로 트리 검색(MCTS)을 사용해 논리 규칙을 발견하고 이러한 규칙을 자연어로 변환하여 지식 주입과 LLM 다운스트림 작업을 위한 원활한 통합을 가능하게 합니다. 이 논문은 공공 및 민간 산업 업무에 대한 프레임워크의 효과를 평가하여 다양한 업무에서 LLM 기능을 향상시킬 수 있는 잠재력을 입증합니다.

2024年度RAG清单,RAG应用策略100+

(66) RAGViz [시스루 아이]

터널 비전RAG 시스템을 투명하게 만들고, 의사가 엑스레이를 보는 것처럼 모델이 어떤 문장을 읽고 있는지 확인하고, 무엇이 잘못되었는지 한 눈에 확인할 수 있습니다.

- 논문: RAGViz: 검색 증강 세대의 진단 및 시각화

- 프로젝트: https://github.com/cxcscmu/RAGViz

RAGViz는 검색된 문서의 시각화와 모델 주의도를 제공하여 사용자가 생성된 마크업과 검색된 문서 간의 상호 작용을 이해하는 데 도움을 주며, RAG 시스템을 진단하고 시각화하는 데 사용할 수 있습니다.

2024年度RAG清单,RAG应用策略100+

(67) 에이전틱랙 [지능형 어시스턴트]

지능형 어시스턴트더 이상 단순한 조회와 복사가 아니라 기밀 비서 역할을 할 수 있는 비서입니다. 유능한 관리자답게 정보를 찾는 방법뿐만 아니라 언제 전화를 걸어야 하는지, 언제 회의를 열어야 하는지, 언제 지시를 요청해야 하는지도 잘 알고 있습니다.

에이전틱RAG는 인공지능 지능 구현을 기반으로 하는 RAG를 말하며, 구체적으로는 인공지능 지능을 RAG 프로세스에 통합하여 구성 요소를 조정하고 단순한 정보 검색 및 생성 이상의 추가 작업을 수행하여 비지능체 프로세스의 한계를 극복합니다.

2024年度RAG清单,RAG应用策略100+

(68) HtmlRAG [타이포그래퍼]

타이포그래퍼: 지식은 러닝계정이 아니라 잡지 레이아웃처럼 굵은 글씨가 필요한 곳에 굵은 글씨로, 빨간색이 필요한 곳에 빨간색 라벨로 표시합니다. 콘텐츠만으로는 부족하다고 생각하는 까다로운 편집자답게 핵심을 한눈에 볼 수 있도록 레이아웃까지 신경 썼습니다.

- 논문: HtmlRAG: RAG 시스템에서 검색된 지식을 모델링하는 데 일반 텍스트보다 HTML이 더 낫습니다.

- 프로젝트: https://github.com/plageon/HtmlRAG

HtmlRAG는 RAG에서 지식을 검색하는 형식으로 일반 텍스트가 아닌 HTML을 사용하며, 외부 문서에서 지식을 모델링할 때 일반 텍스트보다 HTML이 더 낫고 대부분의 LLM은 HTML에 대해 잘 이해하고 있습니다.HtmlRAG는 HTML 정리, 압축 및 가지치기 전략을 제안하여 정보 손실을 최소화하면서 HTML을 단축합니다.

2024年度RAG清单,RAG应用策略100+

(69) M3DocRAG [센슈얼리스트]

감각적인 사람: 읽기뿐만 아니라 그림도 읽고 목소리도 들을 수 있습니다. 버라이어티 쇼의 만능 참가자처럼 그림을 읽고, 단어를 이해하고, 점프해야 할 때 점프하고, 집중해야 할 때 세부 사항에 집중할 수 있으며, 모든 종류의 도전에 패배하지 않습니다.

- 논문: M3DocRAG: 다중 모드 검색은 다중 페이지 다중 문서 이해에 필요한 것

M3DocRAG는 다양한 문서 컨텍스트(폐쇄형 및 개방형 도메인), 질문 점프(단일 및 다중), 증거 모드(텍스트, 차트, 그래프 등)에 유연하게 적응하는 새로운 멀티모달 RAG 프레임워크로, 멀티모달 리트리버와 MLM을 사용해 관련 문서를 찾고 질문에 답하기 때문에 시각적 정보를 보존하면서 단일 또는 다중 문서를 효율적으로 처리할 수 있습니다. 정보를 보존할 수 있습니다.

2024年度RAG清单,RAG应用策略100+

(70) KAG [마스터스 오브 로직]

로직 마스터: 단순히 느낌으로 비슷한 답을 찾는 것이 아니라 지식 사이의 인과 관계를 파악하는 것이 중요합니다. 엄격한 수학 선생님처럼 답이 무엇인지 알아야 할 뿐만 아니라 그 답이 어떻게 도출되었는지 단계별로 설명할 수 있어야 합니다.

- 논문: KAG: 지식 증강 생성을 통한 전문 영역의 LLM 강화

- 프로젝트: https://github.com/OpenSPG/KAG

RAG에서 벡터의 유사성과 지식 추론의 관련성 사이의 격차와 지식 논리(예: 수치, 시간적 관계, 전문가 규칙 등)에 대한 둔감성은 전문 지식 서비스의 효율성을 저해합니다.KAG는 위의 문제를 해결하기 위해 지식 그래프(KG)와 벡터 검색의 강점을 활용하도록 설계되었으며, 5가지 주요 측면을 통해 대규모 언어 모델(LLM)과 지식 그래프를 양방향으로 향상시켰습니다. 생성 및 추론 성능을 개선하기 위해 (1) LLM 친화적인 지식 표현, (2) 지식 그래프와 원시 청크 간의 교차 색인, (3) 논리적 형식 가이드 하이브리드 추론 엔진, (4) 의미 추론과 지식 정렬, (5) KAG의 모델링 기능 강화 등 5가지 핵심 측면을 통해 지식 그래프와 대규모 언어 모델(LLM)을 양방향으로 개선합니다.

2024年度RAG清单,RAG应用策略100+

(71) 필코 [스크리너]

스크리너엄격한 편집자처럼 대량의 텍스트에서 가장 가치 있는 정보를 식별하고 유지하는 데 능숙하며, AI에 전달되는 모든 콘텐츠가 정확하고 관련성이 있는지 확인합니다.

- 논문: 검색 증강 세대를 위한 컨텍스트 필터링 학습하기

- 프로젝트: https://github.com/zorazrw/filco

FILCO는 어휘 및 정보 이론적 접근 방식을 기반으로 유용한 문맥을 식별하고, 검색된 문맥을 필터링하는 문맥 필터링 모델을 훈련하여 생성기에 제공되는 문맥의 품질을 향상시킵니다.

2024年度RAG清单,RAG应用策略100+

(72) LazyGraphRAG [보험 계리사]

보험계리사: 절약할 수 있다면 한 걸음은 한 걸음이고, 큰 고가 모델을 잘 활용하면 한 걸음은 한 걸음입니다. 살림을 잘 아는 주부처럼 마트에서 세일이 있다고 해서 무작정 구매하는 것이 아니라 비교한 후 어디에 돈을 써야 최고의 가치를 얻을 수 있는지 결정합니다.

- 프로젝트: https://github.com/microsoft/graphrag

향상된 검색(RAG)의 그래프 강화 생성에 대한 새로운 접근 방식입니다. 이 접근 방식은 색인 및 쿼리 비용을 크게 줄이면서도 답변 품질 측면에서 경쟁 제품을 유지하거나 능가하므로 광범위한 사용 사례에서 확장성과 효율성이 뛰어나며, LazyGraphRAG는 LLM의 사용을 지연시킵니다. 색인 단계에서 LazyGraphRAG는 경량 NLP 기술만을 사용해 텍스트를 처리함으로써 실제 쿼리까지 LLM의 호출을 지연시킵니다. 이 "게으른" 전략은 높은 초기 색인 비용을 피하고 효율적인 리소스 활용을 달성합니다.

기존 GraphRAGLazyGraphRAG
인덱싱 단계- LLM을 사용하여 엔티티 및 관계 추출 및 설명하기
- 각 엔터티 및 관계에 대한 요약 생성
- LLM을 사용하여 커뮤니티 콘텐츠 요약하기
- 임베딩 벡터 생성
- 쪽모이 세공 파일 생성
- NLP 기술을 사용하여 개념 및 동시 발생 관계 추출하기
- 개념 맵 구축
- 커뮤니티 구조 추출
- 인덱싱 단계에서는 LLM이 사용되지 않습니다.
문의 단계- 커뮤니티 요약을 사용하여 직접 쿼리에 답변하기
- 쿼리 세분화 및 관련 정보에 대한 집중 부족
- LLM을 사용하여 쿼리 구체화 및 하위 쿼리 생성하기
- 관련성에 기반한 텍스트 세그먼트 및 커뮤니티 선택
- LLM을 사용하여 답변 추출 및 생성
- 관련 콘텐츠에 더 집중하고, 더 정확한 답변 제공
LLM 호출- 인덱싱 단계와 쿼리 단계 모두에서 많이 사용됨- 인덱싱 단계에서는 LLM이 사용되지 않습니다.
- 쿼리 단계에서만 LLM 호출하기
- LLM을 더 효율적으로 사용
비용 효율성- 높은 비용과 시간이 소요되는 색인 생성
- 인덱스 품질에 의해 제한된 쿼리 성능
- 인덱싱 비용은 기존 GraphRAG의 0.1%에 불과합니다.
- 높은 쿼리 효율성과 우수한 답변 품질
데이터 스토리지- 쪽모이 세공 파일은 색인된 데이터에서 생성되므로 대규모 데이터 저장 및 처리에 적합합니다.- 인덱싱된 데이터는 경량 형식(예: JSON, CSV)으로 저장되므로 빠른 개발과 작은 데이터 크기에 더 적합합니다.
사용 시나리오- 컴퓨팅 리소스와 시간에 민감하지 않은 시나리오의 경우
- 전체 지식 그래프를 미리 구성하고 나중에 복잡한 분석을 위해 데이터베이스로 가져올 수 있도록 Parquet 파일로 저장해야 합니다.
- 빠른 인덱싱과 응답이 필요한 시나리오의 경우
- 일회성 쿼리, 탐색적 분석 및 스트리밍 데이터 처리에 적합

 

RAG 설문 조사

  • 검색 증강 텍스트 생성에 관한 설문 조사
  • 증강 세대를 위한 멀티모달 정보 검색: 설문 조사
  • 대규모 언어 모델을 위한 검색 증강 생성: 설문 조사
  • AI 생성 콘텐츠를 위한 검색 증강 세대: 설문 조사
  • 대규모 언어 모델을 위한 검색 증강 텍스트 생성에 관한 설문 조사
  • RAG와 RAU: 자연어 처리의 검색 증강 언어 모델에 대한 설문 조사
  • LLM을 충족하는 RAG에 대한 설문 조사: 검색 증강 대규모 언어 모델을 향하여
  • 검색 증강 세대 평가: 설문 조사
  • 자연어 처리를 위한 검색 증강 세대: 설문 조사
  • 그래프 검색-증강 세대: 설문 조사
  • 검색 증강 세대(RAG)에 대한 종합적인 조사: 진화, 현재 환경 및 향후 방향성
  • 검색 증강 생성(RAG) 및 그 이후: LLM이 외부 데이터를 더 현명하게 사용하는 방법에 대한 종합적인 설문조사

RAG 벤치마크

  • 검색 증강 세대의 대규모 언어 모델 벤치마킹하기
  • 리콜: 외부 반박 지식에 대한 LLM의 견고성 벤치마크
  • ARES: 검색 증강 세대 시스템을 위한 자동화된 평가 프레임워크
  • RAGAS검색 증강 생성의 자동화된 평가
  • CRUD-RAG: 대규모 언어 모델의 검색 증강 생성을 위한 포괄적인 중국어 벤치마크
  • FeB4RAG: 검색 증강 생성의 맥락에서 연합 검색 평가하기
  • CodeRAG-Bench: 검색으로 코드 생성을 강화할 수 있나요?
  • Long2RAG: 키포인트 리콜을 통한 긴 컨텍스트 및 긴 형식 검색-증강 세대 평가
© 저작권 정책

관련 문서

댓글 없음

댓글에 참여하려면 로그인해야 합니다!
지금 로그인
없음
댓글 없음...