
Google 이미지 제공 쌍둥이자리 2.0 플래시 세대
최근 구글은 Gemini API 새로운 실험적 텍스트 임베딩 모델이 도입되었습니다. gemini-embedding-exp-03-07
[1]이 모델은 Gemini 모델을 기반으로 학습되었습니다. 이 모델은 제미니 모델을 기반으로 학습되어 언어와 미묘한 맥락에 대한 제미니의 깊은 이해를 계승하며 다양한 시나리오에 적용할 수 있습니다. 이 새로운 모델은 이전에 출시된 구글의 인공 지능 모델인 text-embedding-004
모델과 다국어 텍스트 임베딩 벤치마크(MTEB) 차트에서 1위를 차지했으며, 더 긴 입력을 제공하기도 했습니다. 토큰 길이와 같은 새로운 기능.
해설
이미 시장에 다국어-e5-large-instruct와 같은 일부 오픈 소스 임베딩 모델이 있다는 점을 고려하면, 성능 면에서 Gemini 새 모델보다 약간 떨어질 수 있지만 작은 텍스트 블록 처리 및 비용에 민감한 애플리케이션과 같은 특정 시나리오에서는 오픈 소스 모델이 여전히 경쟁력이 있을 수 있습니다. 따라서 Gemini 새 모델의 향후 시장 수용 여부는 궁극적으로 우수한 성능 외에도 가격 전략과 사용 제한이 개발자의 요구를 충족하는지 여부에 따라 달라질 것입니다.
포괄적인 주요 텍스트 임베딩 모델
구글은 새 모델이 금융, 과학, 법률, 검색 및 기타 여러 분야에서 뛰어난 성능을 발휘하도록 특별히 훈련되었으며, 특정 작업에 대한 광범위한 미세 조정 없이 바로 사용할 수 있다고 말합니다.
다국어 MTEB 순위에서.gemini-embedding-exp-03-07
평균 작업 점수는 68.32점으로 2위 모델보다 5.81점 높았으며, MTEB 순위는 검색, 분류 등 다양한 작업에 대한 텍스트 임베딩 모델의 성능을 종합적으로 평가하기 때문에 모델 비교에 중요한 참고 자료가 됩니다.

텍스트 임베딩을 선택하는 이유는 무엇인가요?
지능형 검색 구축을 통한 향상된 생성(RAG) 및 추천 시스템에서 텍스트 분류에 이르기까지, 텍스트 뒤에 숨겨진 의미를 이해하는 대규모 언어 모델(LLM)의 능력은 매우 중요합니다. 임베딩 기술을 사용하면 키워드 매칭 시스템보다 더 나은 결과를 제공하면서 비용과 지연 시간을 줄여 보다 효율적인 시스템을 구축할 수 있습니다.
임베딩 기술은 데이터의 수치적 표현을 통해 의미와 맥락을 포착합니다. 비슷한 의미를 가진 데이터는 임베딩 벡터가 더 가깝습니다. 임베딩 기법은 다음과 같은 다양한 애플리케이션을 지원합니다:
- 효율적인 검색: 법률 문서 검색이나 엔터프라이즈 검색과 같은 대규모 데이터베이스에서 쿼리와 문서의 임베딩 벡터를 비교하여 관련 문서를 찾습니다.
- 검색 증강 생성(RAG): 관련 정보를 검색하고 모델 컨텍스트에 통합하여 생성된 텍스트의 품질과 관련성을 개선합니다.
- 클러스터링 및 분류: 유사한 텍스트를 그룹화하여 데이터의 트렌드와 테마를 식별합니다.
- 분류: 감정 분석 또는 스팸 탐지 등 텍스트 콘텐츠에 기반한 자동 분류.
- 텍스트 유사성: 중복 콘텐츠를 식별하고 웹 페이지 중복 제거 또는 표절 감지와 같은 작업을 수행합니다.
임베딩 및 일반적인 AI 사용 사례에 대해 자세히 알아보려면 다음을 참조하세요. Gemini API 문서.
지금 Gemini 텍스트 임베딩을 경험하세요
개발자는 이제 Gemini API를 통해 이 새로운 실험적인 텍스트 임베딩 모델을 사용할 수 있습니다. 이 모델은 기존의 embed_content
인터페이스 호환성.
from google import genai
client = genai.Client(api_key="GEMINI_API_KEY")
result = client.models.embed_content(
model="gemini-embedding-exp-03-07",
contents="阿尔法折叠是如何工作的?",
)
print(result.embeddings)
모든 측면에서 품질을 개선할 뿐만 아니라gemini-embedding-exp-03-07
또한 다음과 같은 특징이 있습니다:
- 8K 토큰 입력 한도: 이전 모델에 비해 Google은 더 큰 텍스트, 코드 또는 기타 데이터 덩어리를 삽입할 수 있도록 컨텍스트 길이를 개선했습니다.
- 3072 차원 출력: 이전 임베딩 모델보다 약 4배 더 많은 토큰을 포함하는 고차원 임베딩 벡터를 사용합니다.
- 마트료시카 표현 학습(MRL): MRL을 사용하면 개발자는 원본 3072차원 벡터를 잘라내어 스토리지 비용을 절감할 수 있습니다. 간단히 말해, MRL 기술을 사용하면 저장 공간을 절약하는 대신 정밀도를 일부 희생할 수 있습니다.
- 확장된 언어 지원: 지원 언어 수가 100개 이상으로 두 배로 늘어났습니다.
- 통합 모델: 이 모델은 이전에 출시된 Google의 작업별, 다국어, 일반 영어 및 코드별 모델을 뛰어넘는 품질입니다.
현재 제한된 용량으로 실험 단계에 있지만, 이번 릴리스는 개발자에게 조기에 탐색할 수 있는 기회를 제공합니다. gemini-embedding-exp-03-07
역량 기회. 모든 실험 모델과 마찬가지로 변경될 수 있으며, Google은 향후 몇 달 내에 안정적이고 일반적으로 사용할 수 있는 버전을 출시하기 위해 노력하고 있다고 밝혔습니다.
Google은 개발자가 다음을 통해 제품의 접근성을 높이도록 장려하고 있습니다. 내장된 피드백 양식 피드백을 제공합니다.
일부 사용자는 미리 보기 기간 동안 모델이 무료라는 점을 지적했지만, 엄격한속도 제한분당 요청 수 -5건, 하루 요청 수 100건. 개발자는 모델을 테스트할 때 이러한 제한을 쉽게 트리거할 수 있습니다. 일부 사용자는 Google이 곧 이러한 제한을 상향 조정할 것이라는 희망을 표명했습니다.
Reddit 토론에서 많은 사용자들은 새로운 모델의 출시에 대해 "사람들이 생각하는 것보다 더 큰 문제"라고 설명하며 흥분을 감추지 못했습니다. 한 사용자는 "3차원 fp32 임베딩 벡터는 엄청납니다. 그 정도의 데이터로 아주 합리적인 디코더를 만들 수 있을 것 같아요 ...... 이 모델이 저렴하다면 저는 아마도 본격적인 대규모 언어 모델보다 더 자주 사용할 것입니다. 일반적으로 의미론적 특징 추출은 사용자가 정말로 원하는 것입니다."
또 다른 사용자는 이 모델이 다국어 영역에서 "경쟁이 많지 않다"며 속도 제한과 임베딩의 크기 때문에 더 큰 텍스트 블록에 가장 적합할 것이라고 덧붙였습니다.
[1]: Vertex AI에서는 동일한 모델이text-embedding-large-exp-03-07
인터페이스가 제공됩니다. 네이밍은 공식 출시 시점에 맞춰 일관성 있게 변경될 예정입니다.© 저작권 정책
기사 저작권 AI 공유 서클 모두 무단 복제하지 마세요.
관련 문서
댓글 없음...