Jina Embeddings v3 Unser neuestes 570-Millionen-Parameter-Top-Level-Textvektormodell erreicht bei mehrsprachigen und langen Textretrievalaufgaben die derzeit beste SOTA.
v3 ist nicht nur leistungsfähiger, sondern bietet auch viele neue und spannende Funktionen. Wenn Sie noch Jina Embeddings v2 verwenden, das im Oktober 2023 veröffentlicht wurde, empfehlen wir Ihnen dringend, so bald wie möglich auf v3 zu migrieren.
Beginnen wir mit einem kurzen Überblick über die Highlights von Jina Embeddings v3:
- Unterstützung für 89 Sprachen Überwindung der Einschränkung, dass v2 nur einige wenige zweisprachige Sprachen verarbeiten kann, um eine echte mehrsprachige Textverarbeitung zu ermöglichen.
- Eingebauter Lora-Adapterv2 ist ein allgemeines Einbettungsmodell, während v3 über einen integrierten Lora-Adapter verfügt, der Vektoren generiert, die speziell für Ihre Such-, Klassifizierungs-, Clustering- und andere Aufgaben optimiert sind, um eine bessere Leistung zu erzielen.
- Längere Textsuche ist genauer :: v3 Nutzung von 8192 Token Die Technik des Late Chunking, die Blockvektoren mit reichhaltigeren Kontextinformationen erzeugt, kann die Genauigkeit der Suche nach langen Texten erheblich verbessern.
- Vektordimensionen sind flexibel und kontrollierbar Die Vektordimensionen von : v3 können flexibel angepasst werden, um ein Gleichgewicht zwischen Leistung und Speicherplatz zu erreichen und den hohen Speicheraufwand zu vermeiden, der mit hochdimensionalen Vektoren verbunden ist. Ermöglicht wird dies durch Matryoshka Representation Learning (MRL).
Link zum Open-Source-Modell: https://huggingface.co/jinaai/jina-embeddings-v3
Modell API-Link: https://jina.ai/?sui=apikey
Link zum Musterpapier: https://arxiv.org/abs/2409.10173
Kurzanleitung zur Migration
- Da es sich bei v3 um ein völlig neues Modell handelt, können die Vektoren und Indizes von v2 nicht direkt wiederverwendet werden, und Sie müssen die Daten erneut indizieren.
- In den meisten Szenarien (96%) schneidet v3 deutlich besser ab als v2, während v2 nur gelegentlich gleichauf oder sogar leicht besser abschneidet als v3 bei der englischen Zusammenfassungsaufgabe. Angesichts der Mehrsprachenunterstützung und der erweiterten Funktionen von v3 sollte v3 jedoch in den meisten Szenarien bevorzugt werden.
- Die v3-API umfasst jetzt
task
unddimensions
im Gesang antwortenlate_chunking
Drei Parameter, deren genaue Verwendung Sie in unserem Blogbeitrag nachlesen können.
Anpassung der Abmessungen
- v3 gibt standardmäßig einen 1024-dimensionalen Vektor aus, während v2 nur 768 Dimensionen hat. Mit dem Lernen der Matryoshka-Darstellung kann v3 nun theoretisch jede Dimension ausgeben. Die Entwickler können die
dimensions
Parameter steuern flexibel die Dimensionalität der Ausgangsvektoren, um das beste Gleichgewicht zwischen Speicherkosten und Leistung zu finden - Wenn Ihr vorheriges Projekt auf der Grundlage der API v2 entwickelt wurde, ändern Sie den Modellnamen direkt in
jina-embeddings-v3
ist nicht möglich, da sich die Standardabmessungen geändert haben. Wenn Sie die Datenstruktur oder die Größe mit v2 konsistent halten wollen, können Sie diedimensions=768
Auch wenn die Dimensionen dieselben sind. Auch wenn die Dimensionen gleich sind, haben die Vektoren von v3 und v2 völlig unterschiedliche Verteilungen auf dem semantischen Raum und können daher nicht direkt austauschbar verwendet werden.
Modellwechsel
- Die starke mehrsprachige Unterstützung in v3 hat das zweisprachige Modell in v2 (v2-base-de, v2-base-es, v2-base-zh) vollständig ersetzt.
- Für reine Kodierungsaufgaben ist jina-embeddings-v2-based-code immer noch die beste Wahl. Die Tests zeigen, dass sie einen Wert von 0,7753 erreicht, verglichen mit 0,7537 für die generischen Vektoren von v3 (ohne Aufgabensatz) und 0,7564 für den LoRA-Adapter, was der v2-Kodierung einen Leistungsvorsprung von etwa 2,81 TP3T gegenüber v3 verleiht.
Parameter der Mission
- Die v3-API erzeugt generische Vektoren von guter Qualität, wenn der Aufgabenparameter nicht angegeben wird. Es wird jedoch dringend empfohlen, den Aufgabenparameter entsprechend dem spezifischen Aufgabentyp festzulegen, um eine bessere Vektordarstellung zu erhalten.
- Um v3 dazu zu bringen, das Verhalten von v2 zu emulieren, verwenden Sie die
task="text-matching"
Wir empfehlen, verschiedene Aufgabenoptionen auszuprobieren, um die beste Lösung zu finden, aber wir empfehlen nicht, die Optiontext-matching
Als universelles Programm. - Wenn Ihr Projekt v2 für die Informationsbeschaffung verwendet, wird empfohlen, für den Aufgabentyp Abruf auf v3 zu wechseln (
retrieval.passage
im Gesang antwortenretrieval.query
), lassen sich bessere Abrufergebnisse erzielen.
Andere Überlegungen
- Für ganz neue Aufgabentypen (die selten sind), versuchen Sie, den Aufgabenparameter als Ausgangspunkt auf None zu setzen.
- Wenn Sie die Technik des Umschreibens von Bezeichnungen in v2 für Klassifizierungsaufgaben mit Nullproben verwendet haben, können Sie in v3 einfach die
task="classification"
Ähnliche Ergebnisse werden erzielt, da v3 die Vektordarstellung für die Klassifizierungsaufgabe optimiert hat. - Sowohl v2 als auch v3 unterstützen Kontextlängen von bis zu 8192 Token, aber v3 ist dank der FlashAttention2-Technologie effizienter und bildet die Grundlage für die Late-Scoring-Funktion von v3.
Spätes Chunking
- v3 führt eine Late-Splitting-Funktion ein, die 8192 Token verwendet, um einen langen Kontext zu bilden, und diesen dann in Vektoren aufteilt, so dass jedes kleine Stück kontextuelle Informationen enthält, was die Abfrage natürlich genauer macht.
late_chunking
Sie ist derzeit nur in der API verfügbar. Wenn Sie also Modelle lokal ausführen, können Sie diese Funktion noch eine Weile nicht nutzen.- .
late_chunking
Die Länge des Textes in jeder Anfrage darf 8192 Token nicht überschreiten, da v3 nur so viel Inhalt auf einmal verarbeiten kann.
Leistung und Geschwindigkeit
- Obwohl v3 dreimal so viele Parameter wie v2 hat, ist die Schlussfolgerung schneller als v2 oder zumindest gleich schnell, was hauptsächlich auf die FlashAttention2-Technologie zurückzuführen ist.
- Nicht alle Grafikprozessoren unterstützen FlashAttention2. v3 läuft auch dann, wenn Sie einen Grafikprozessor ohne FlashAttention verwenden, ist aber möglicherweise etwas langsamer als v2.
- Bei der Verwendung der API wirken sich auch Faktoren wie Netzwerklatenz, Ratenbeschränkungen und Verfügbarkeitszonen auf die Latenz aus, so dass die API-Latenz die tatsächliche Leistung des v3-Modells nicht vollständig widerspiegelt.
Im Gegensatz zu v2 ist Jina Embeddings v3 unter CC BY-NC 4.0 lizenziert. v3 kann kommerziell über unsere API, AWS oder Azure genutzt werden. Forschung und nicht-kommerzielle Nutzung sind kein Problem. Für den lokalen kommerziellen Einsatz kontaktieren Sie bitte unser Vertriebsteam für eine Lizenz:
https://jina.ai/contact-sales
Unterstützung mehrerer Sprachen
v3 ist derzeit das branchenweit führende mehrsprachige Vektormodell** und steht in den M****TEB-Charts auf Platz 2 für Modelle mit weniger als 1 Milliarde Parametern. **Es unterstützt 89 Sprachen und deckt damit die meisten der wichtigsten Sprachen der Welt ab.
Dazu gehören Chinesisch, Englisch, Japanisch, Koreanisch, Deutsch, Spanisch, Französisch, Arabisch, Bengalisch, Dänisch, Niederländisch, Finnisch, Georgisch, Griechisch, Hindi, Indonesisch, Italienisch, Lettisch, Norwegisch, Polnisch, Portugiesisch, Rumänisch, Russisch, Slowakisch, Schwedisch, Thai, Türkisch, Ukrainisch, Urdu und Vietnamesisch. Türkisch, Ukrainisch, Urdu und Vietnamesisch.
Wenn Sie die Modelle Englisch, Englisch/Deutsch, Englisch/Spanisch oder Englisch/Chinesisch von v2 verwendet haben, müssen Sie jetzt nur noch die model
Parameter und wählen Sie die entsprechenden task
Typs können Sie problemlos zu v3 wechseln.
# v2 英语-德语
data = {
"model": "jina-embeddings-v2-base-de",
"input": [
"The Force will be with you. Always.",
"Die Macht wird mit dir sein. Immer.",
"The ability to destroy a planet is insignificant next to the power of the Force.",
"Die Fähigkeit, einen Planeten zu zerstören, ist nichts im Vergleich zur Macht der Macht."
]
}
# v3 多语言
data = {
"model": "jina-embeddings-v3",
"task": "retrieval.passage",
"input": [
"The Force will be with you. Always.",
"Die Macht wird mit dir sein. Immer.",
"力量与你同在。永远。",
"La Forza sarà con te. Sempre.",
"フォースと共にあらんことを。いつも。"
]
}
response = requests.post(url, headers=headers, json=data)
Aufgabenspezifische Vektordarstellung
v2 verwendet eine generische Vektordarstellung, d.h. alle Aufgaben verwenden dasselbe Modell. v3 bietet speziell optimierte Vektordarstellungen für verschiedene Aufgaben (z.B. Retrieval, Klassifizierung, Clustering usw.), um die Leistung in bestimmten Szenarien zu verbessern.
Wählen Sie verschiedene task
Dies bedeutet, dass dem Modell mitgeteilt wird, welche für diese Aufgabe relevanten Merkmale extrahiert werden sollen, wodurch eine Vektordarstellung erzeugt wird, die besser an die Anforderungen der Aufgabe angepasst ist.
Im Folgenden wird anhand eines Beispiels aus der Wissensdatenbank für Lichtschwert-Reparaturen gezeigt, wie v2-Code auf v3 migriert werden kann, um die Leistungssteigerung durch aufgabenspezifische Vektordarstellungen zu erfahren:
# 实际项目中我们会使用更大的数据集,这个只是示例
knowledge_base = [
"为什么我的光剑刀锋在闪烁?刀锋闪烁可能表示电池电量不足或不稳定的水晶。请为电池充电并检查水晶的稳定性。如果闪烁持续,可能需要重新校准或更换水晶。",
"为什么我的刀锋比以前暗淡?刀锋变暗可能意味着电池电量低或电源分配有问题。首先,请为电池充电。如果问题仍然存在,可能需要更换LED。",
"我可以更换我的光剑刀锋颜色吗?许多光剑允许通过更换水晶或使用剑柄上的控制面板更改颜色设置来自定义刀锋颜色。请参阅您的型号手册以获得详细说明。",
"如果我的光剑过热,我该怎么办?过热可能是由于长时间使用导致的。关闭光剑并让其冷却至少10分钟。如果频繁过热,可能表明内部问题,需由技术人员检查。",
"如何为我的光剑充电?通过剑柄附近的端口,将光剑连接到提供的充电线,确保使用官方充电器以避免损坏电池和电子设备。",
"为什么我的光剑发出奇怪的声音?奇怪的声音可能表示音响板或扬声器有问题。尝试关闭光剑并重新开启。如果问题仍然存在,请联系我们的支持团队以更换音响板。"
]
query = "光剑太暗了"
Für v2 gibt es nur eine Aufgabe (Textabgleich), so dass wir nur einen Beispielcodeblock benötigen:
# v2 代码:使用文本匹配任务对知识库和查询进行编码
data = {
"model": "jina-embeddings-v2-base-en",
"normalized": True, # 注意:v3 中不再需要此参数
"input": knowledge_base
}
docs_response = requests.post(url, headers=headers, json=data)
data = {
"model": "jina-embeddings-v2-base-en",
"task": "text-matching",
"input": [query]
}
query_response = requests.post(url, headers=headers, json=data)
v3 bietet Vektordarstellungen, die für bestimmte Aufgaben optimiert sind, darunter Retrieval, Trennung, Klassifizierung und Textabgleich.
Vektordarstellung der Suchaufgabe
Wir verwenden eine einfache Lichtschwert-Reparatur-Wissensbasis als Beispiel, um den Unterschied zwischen v2 und v3 bei der Bearbeitung von Text-Retrieval-Aufgaben zu demonstrieren.
Für semantische Retrievalaufgaben führt v3 eine asymmetrische Kodierung ein, bei der jeweils die retrieval.passage
im Gesang antworten retrieval.query
Codierung von Dokumenten und Abfragen zur Verbesserung der Abrufleistung und -genauigkeit.
Codierung der Dokumente: retrieval.passage
data = {
"model": "jina-embeddings-v3",
"task": "retrieval.passage", # "task" 参数是 v3 中的新功能
"late_chunking": True,
"input": knowledge_base
}
response = requests.post(url, headers=headers, json=data)
Abfragecode: retrieval.query
data = {
"model": "jina-embeddings-v3",
"task": "retrieval.query",
"late_chunking": True,
"input": [query]
}
response = requests.post(url, headers=headers, json=data)
Hinweis: Der obige Code aktiviert dielate_chunking
Funktion, die die Kodierung von langem Text verbessern kann, werden wir sie später im Detail vorstellen.
Vergleichen wir die Leistung von v2 und v3 für die Abfrage "Lichtschwerter sind zu dunkel". v2 liefert eine Reihe weniger relevanter Treffer auf der Grundlage der Kosinusähnlichkeit, wie unten dargestellt:
Im Gegensatz dazu versteht v3 die Absicht der Abfrage besser und liefert genauere Ergebnisse zum Thema "Aussehen der Lichtschwertklinge", wie unten dargestellt.
v3 ermöglicht nicht nur das Abrufen von Daten, sondern bietet auch verschiedene andere aufgabenspezifische Vektordarstellungen:
Vektordarstellung der Trennaufgaben
v3 separation
Die Aufgaben sind für Trennungsaufgaben wie Clustering, Re-Ranking usw. optimiert, z. B. für die Trennung verschiedener Typen von Entitäten, was für die Organisation und Visualisierung großer Korpora nützlich ist.
Beispiel: Unterscheidung zwischen Star Wars und Disney-Figuren
data = {
"model": "jina-embeddings-v3",
"task": "separation", # 使用 separation 任务
"late_chunking": True,
"input": [
"Darth Vader",
"Luke Skywalker",
"Mickey Mouse",
"Donald Duck"
]
}
response = requests.post(url, headers=headers, json=data)
Vektorielle Darstellung von Klassifizierungsaufgaben
v3 classification
Die Aufgabe ist optimiert für Textkategorisierungsaufgaben wie Stimmungsanalyse und Dokumentenklassifizierung, z. B. die Einteilung von Text in positive und negative Kommentare.
Beispiel: Analyse der emotionalen Tendenzen von Star Wars-Filmkritiken
data = {
"model": "jina-embeddings-v3",
"task": "classification",
"late_chunking": True,
"input": [
"《星球大战》是一部划时代的杰作,彻底改变了电影业,并永远重新定义了科幻电影!",
"《星球大战》拥有令人惊叹的视觉效果、令人难忘的角色和传奇的叙事,是一部无与伦比的文化现象。",
"《星球大战》是一场过度炒作的灾难,充满了浅薄的角色,毫无有意义的情节!",
}
response = requests.post(url, headers=headers, json=data)
Vektorielle Darstellung des Textabgleichs
v3 text-matching
Konzentration auf semantische Ähnlichkeitsaufgaben wie Satzähnlichkeit oder Deemphasis, z. B. Ausschluss von Satzwiederholungen oder Absätzen.
Beispiel: Erkennen von Wiederholungen in Star Wars-Zeilen
data = {
"model": "jina-embeddings-v3",
"task": "text-matching",
"late_chunking": True,
"input": [
"Luke, I am your father.",
"No, I am your father.",
"Fear leads to anger, anger leads to hate, hate leads to the dark side.",
"Fear leads to anger. Anger leads to hate. Hate leads to suffering."
]
}
response = requests.post(url, headers=headers, json=data)
Late Chunking: Verbesserung der Kodierung langer Texte
v3 führt die late_chunking
Parameter, wenn der late_chunking=True
Wenn das Modell das gesamte Dokument verarbeitet und es dann in mehrere Blöcke aufteilt, um Blockvektoren zu erzeugen, die vollständige Kontextinformationen enthalten; wenn die late_chunking=False
Wenn das Modell jeden Block unabhängig verarbeitet, enthalten die erzeugten Blockvektoren keine blockübergreifenden Kontextinformationen.
zur Kenntnis nehmen
- .
late_chunking=True
Die Gesamtzahl der Token pro API-Anfrage darf 8192 nicht überschreiten. Dies ist die maximale Kontextlänge, die von v3 unterstützt wird. late_chunking=False
Die Gesamtzahl der Token ist nicht begrenzt, unterliegt aber dem Ratenlimit der Embeddings-API.
Für die Verarbeitung langer Texte aktivieren Sie die Option late_chunking
kann die Kodierung erheblich verbessern, da Kontextinformationen über Blöcke hinweg erhalten bleiben und die resultierende Vektordarstellung vollständiger und genauer wird.
Wir haben eine Mitschrift eines Chats verwendet, um zu bewerten late_chunking
Auswirkungen auf die Effektivität der Suche nach langen Texten.
history = [
"Sita,你决定好周六生日晚餐要去哪儿了吗?",
"我不确定,对这里的餐厅不太熟悉。",
"我们可以上网看看推荐。",
"那听起来不错,我们就这么办吧!",
"你生日那天想吃什么类型的菜?",
"我特别喜欢墨西哥菜或者意大利菜。",
"这个地方怎么样,Bella Italia?看起来不错。",
"哦,我听说过那个地方!大家都说那儿很好!",
"那我们订张桌子吧?",
"好,我觉得这会是个完美的选择!我们打电话预定吧。"
]
Bei Verwendung von v2 für die Abfrage "Was sind gute Restaurantempfehlungen?" sind die erhaltenen Ergebnisse nicht besonders relevant.
Mit v3 und nicht aktiviertem Late Chunking sind die Ergebnisse ebenso unbefriedigend.
Bei Verwendung von v3 und Aktivierung von late chunking
Wenn das relevanteste Ergebnis (eine gute Restaurantempfehlung) genau an erster Stelle steht.
Suchergebnisse:
Aus den Suchergebnissen geht hervor, dass die Aktivierung late_chunking
Anschließend ist v3 in der Lage, die für die Anfrage relevanten Chats genauer zu identifizieren und die relevantesten Ergebnisse an die erste Stelle zu setzen.
Sie zeigt auch, dass late_chunking<span> </span>
Die Genauigkeit der Suche nach langen Texten kann effektiv und effizient verbessert werden, insbesondere in Szenarien, die ein tiefes Verständnis der kontextuellen Semantik erfordern.
Verwendung russischer verschachtelter Vektoren zur Darstellung von Ausgleichseffizienz und Leistung
v3 Verabschiedet dimensions
Der Parameter unterstützt eine flexible Steuerung der Vektordimensionen, so dass Sie die Dimension des Ausgabevektors an den tatsächlichen Bedarf anpassen und ein Gleichgewicht zwischen Leistung und Speicherplatz finden können.
Kleinere Vektordimensionen können den Speicheraufwand von Vektordatenbanken verringern und die Abrufgeschwindigkeit verbessern, aber es können auch einige Informationen verloren gehen, was zu Leistungseinbußen führt.
data = {
"model": "jina-embeddings-v3",
"task": "text-matching",
"dimensions": 768, # 设置向量维度为 768,默认值为 1024
"input": [
"The Force will be with you. Always.",
"力量与你同在。永远。",
"La Forza sarà con te. Sempre.",
"フォースと共にあらんことを。いつも。"
]
}
response = requests.post(url, headers=headers, json=data)
allgemeine Probleme
F1: Was sind die Vorteile von Late Chunking, wenn ich das Dokument bereits vor der Vektorisierung gechunked habe?
A1: Der Vorteil des Late Splitting gegenüber dem Pre-Splitting ist die Möglichkeit Verarbeitet das gesamte Dokument vor dem Chunking, so dass die Kontextinformationen vollständiger erhalten bleiben . Late Chunking ist wichtig für die Verarbeitung komplexer oder langer Dokumente. Es kann dazu beitragen, eine relevantere Antwort beim Abruf zu liefern, da das Modell vor dem Chunking ein ganzheitliches Verständnis des Dokuments hat. Vorsegmentierte Blöcke werden hingegen unabhängig von Blöcken ohne vollständigen Kontext verarbeitet.
F2: Warum hat v2 eine höhere Benchmark-Punktzahl als v3 bei der paarweisen Klassifizierung? Muss ich mir Sorgen machen?
A2: Die scheinbar höheren Werte von v2 bei der paarweisen Klassifizierung sind hauptsächlich darauf zurückzuführen, dass die Durchschnittswerte anders berechnet werden. Der Testsatz von v3 enthält mehr Sprachen, so dass seine Durchschnittswerte wahrscheinlich niedriger sind als die von v2. Tatsächlich schneidet v3 bei der paarweisen Klassifizierung in allen Sprachen genauso gut oder sogar besser ab als modernste Modelle wie multilingual-e5.
F3: Ist die Leistung von v3 bei bestimmten Sprachen, die vom zweisprachigen Modell v2 unterstützt werden, besser?
A3: Leistungsvergleich der zweisprachigen Modelle v3 und v2 für bestimmte Sprachen Hängt von der jeweiligen Sprache und der Art der Aufgabe ab Das zweisprachige Modell von v2 ist stark für bestimmte Sprachen optimiert und kann daher bei einigen spezifischen Aufgaben besser abschneiden. v3 ist jedoch darauf ausgelegt, ein breiteres Spektrum mehrsprachiger Szenarien zu unterstützen, mit stärkerer sprachübergreifender Generalisierung und optimiert für eine Vielzahl nachgelagerter Aufgaben durch aufgabenspezifische LoRA-Adapter. Infolgedessen erzielt v3 in der Regel eine bessere Gesamtleistung über mehrere Sprachen hinweg oder in komplexeren aufgabenspezifischen Szenarien wie semantisches Retrieval und Textkategorisierung.
Wenn Sie nur eine bestimmte Sprache bearbeiten müssen, die vom zweisprachigen Modell v2 unterstützt wird (Chinesisch-Englisch, Englisch-Deutsch, Spanisch-Englisch), und Ihre Aufgabe relativ einfach ist, dann ist v2 immer noch eine gute Wahl und kann in einigen Fällen sogar besser sein.
Wenn Sie jedoch mit mehreren Sprachen arbeiten müssen oder wenn Ihre Aufgabe komplexer ist (z. B. semantisches Retrieval oder Textklassifikation), dann ist v3 mit seinen starken sprachübergreifenden Generalisierungsfähigkeiten und Optimierungsstrategien auf der Grundlage nachgelagerter Aufgaben die bessere Wahl.
F4: Warum schneidet v2 bei zusammenfassenden Aufgaben besser ab als v3 und muss ich mir darüber Gedanken machen?
A4: v2 schneidet bei der Zusammenfassungsaufgabe besser ab, vor allem weil seine Modellarchitektur speziell für Aufgaben wie die semantische Ähnlichkeit optimiert ist, die eng mit der Zusammenfassungsaufgabe zusammenhängt. v3 wurde mit dem Ziel entwickelt, eine breitere Aufgabenunterstützung zu bieten, insbesondere bei Retrieval- und Klassifizierungsaufgaben, und ist daher bei der Zusammenfassungsaufgabe nicht so gut optimiert wie v2.
Man sollte sich jedoch keine allzu großen Sorgen machen, da die Bewertung der Zusammenfassungsaufgabe derzeit auf SummEval beruht, einem Test, der die semantische Ähnlichkeit misst und die Gesamtfähigkeit des Modells bei der Zusammenfassungsaufgabe nicht vollständig wiedergibt. In Anbetracht der Tatsache, dass v3 auch bei anderen wichtigen Aufgaben wie dem Retrieval gut abschneidet, haben geringfügige Leistungsunterschiede bei der Zusammenfassungsaufgabe in der Regel keine signifikanten Auswirkungen auf reale Anwendungen.
Zusammenfassungen
Jina Embeddings v3 ist ein bedeutendes Modell-Upgrade für unser erstklassiges SOTA für mehrsprachige und lange Text-Retrieval-Aufgaben. Es wird mit einer Vielzahl von eingebauten LoRA-Adaptern geliefert, die für verschiedene Szenarien von Retrieval, Clustering, Klassifizierung und Matching angepasst werden können, je nach Ihren Bedürfnissen für genauere Vektorisierungsergebnisse. Wir empfehlen Ihnen dringend, so bald wie möglich auf v3 zu migrieren.
Dies sind nur einige unserer Einführungen in Jina Embeddings v3. Wir hoffen, Sie finden sie hilfreich. Wenn Sie Fragen haben, können Sie gerne einen Kommentar hinterlassen, um zu diskutieren!