AI Personal Learning
und praktische Anleitung
讯飞绘镜

Jina's inferentielles Tiefensuchwerkzeug, DeepSearch API, geht live!

Inmitten der sich ständig verändernden Welle der Technologie für künstliche Intelligenz hat Jina AI vor kurzem sein neuestes Meisterwerk veröffentlicht - die DeepSearch-APIein revolutionäres Werkzeug für die inferentielle Tiefensuche, das in der Branche viel Aufmerksamkeit erregt hat. Die API wird damit angepriesen, dass sie wie ein menschlicher Forscher handeln kann undSuchen, lesen und argumentieren, um die beste Antwort zu findenund bietet den Nutzern ein nie dagewesenes Sucherlebnis.

Jina 推理式深度搜索工具 DeepSearch API 正式上线-1

DeepSearch API: Tiefe Erkundung von Informationsgrenzen

Die Kernidee der DeepSearch-API besteht darin, die Grenzen der herkömmlichen Suchtechnologie zu durchbrechen, indem sie über die einfache Suche nach Schlüsselwörtern hinausgeht.Modellierung des menschlichen Prozesses der vertieften ForschungWie Jina AI offiziell betont, ist DeepSearch in der Lage, einen vollständigen Prozess des "Suchens und Schlussfolgerns" durchzuführen, um auf komplexe Anfragen zu reagieren, die iteratives Schlussfolgern über das Wissen der Welt oder die neuesten Nachrichten erfordern. Wie Jina AI offiziell betont, ist DeepSearch in der Lage, einen vollständigen Prozess des "Suchens, Lesens und Schlussfolgerns" als Antwort auf komplexe Anfragen durchzuführen, die iteratives Schlussfolgern, umfangreiches Weltwissen oder aktuelle Informationen erfordern.


 

Kompatibel mit OpenAI Chat API: Nahtlose Schnittstelle zu bestehenden Ökosystemen

Es ist erwähnenswert, dass die DeepSearch-API mit Blick auf die Nutzungsgewohnheiten der Entwickler entwickelt wurde.Vollständig kompatibel mit dem Chat-API-Modus von OpenAIDies bedeutet, dass Entwickler ihre bestehenden OpenAI-Chat-Anwendungen extrem einfach auf die DeepSearch-Plattform umstellen können. Dies bedeutet, dass Entwickler ihre bestehenden OpenAI-Chat-Apps ganz einfach auf die DeepSearch-Plattform umstellen können, indem sie einfach die API-Endpunkte wechseln chat.openai.com Ersetzen durch deepsearch.jina.ai Es kann losgehen.

Im Folgenden wird ein Beispiel für die Verwendung der curl Beispiel für einen Befehl, der die DeepSearch-API aufruft:

curl https://deepsearch.jina.ai/v1/chat/completions \
-H "Authorization: Bearer jina_07515539916047afa9a13d59da8d850ccim8_UGTw_MTA1U3VDDXNt7Euq65" \
-H "Content-Type: application/json" \
-d @- <<EOF
{
"model": "jina-deepsearch-v1",
"messages": [
{
"role": "user",
"content": "Hi!"
},
{
"role": "assistant",
"content": "Hi, how can I help you?"
},
{
"role": "user",
"content": "what's the latest blog post from jina ai?"
}
],
"stream": true,
"reasoning_effort": "medium"
}
EOF

 

Interaktive Erfahrung: Dialog mit DeepSearch

Damit die Nutzer die Leistungsfähigkeit von DeepSearch noch intuitiver erleben können, bietet Jina AI auch dieLive-Chat-DemoDeepSearch ist die erste und einzige Suchmaschine der Welt, mit der man in der Tiefe suchen kann. Die Nutzer können über eine einfache Chat-Schnittstelle direkt mit DeepSearch sprechen, um einen Einblick in seine Tiefensuchfunktionen zu erhalten.

Benutzer können zum Beispiel die folgenden Fragen stellen, um die Leistung von DeepSearch in verschiedenen Szenarien zu testen:

  • Was steht in dem neuesten Blog von OpenAI?
  • Was ist die Motivation hinter dem Projekt node-DeepResearch?
  • Was sind die Verbesserungen von jina-colbert-v2 gegenüber jina-colbert-v1?

Diese Fragen decken eine Vielzahl von Dimensionen ab, wie z.B. Informationsbeschaffung, Erkundung des Projekthintergrunds und Vergleich von technischen Details, wodurch die umfassenden Such- und Schlussfolgerungsfähigkeiten von DeepSearch effektiv getestet werden können.

 

Der Hauptvorteil von DeepSearch: Jenseits des traditionellen Suchparadigmas

Der Kernwert von DeepSearch liegt in seinerVertiefte Forschungskapazität. Es kombiniert mehrere Mechanismen wie Websuche, Lesen von Informationen und logisches Schlussfolgern, um umfassende Informationsrecherchen durchzuführen. Stellen Sie sich DeepSearch als einen intelligenten Forschungsassistenten vor, dem ein Benutzer eine Forschungsaufgabe stellt, und der selbstständig umfangreiche Recherchen und mehrere Iterationen durchführt, um eine Antwort zu finden. Dieser Prozess beinhaltet eine kontinuierliche Recherche, logisches Denken und eine multiperspektivische Problemanalyse, die sich von herkömmlichen Large Language Models (LLMs) und Retrieval-basierter Augmentierungsgenerierung (RAG) sind grundlegend verschieden.

Um die Unterschiede zwischen DeepSearch und traditionellen LLM- und RAG-Systemen deutlicher zu machen, stellt Jina AI offiziell den folgenden Vergleich an:

Charakterisierung Großmaßstäbliche Modellierung (LLM) RAG-Paradigma und LLM mit Suche DeepSearch
lexikalische Kosten Ca. 1.000 Wörter Etwa 10.000 Wörter Etwa 500.000 Wörter
Reaktionszeit Ca. 1 Sekunde Ca. 3 Sekunden Ca. 50 Sekunden
Anwendbare Szenarien Schnelle Antworten auf Fragen des gesunden Menschenverstands (einige Szenarien gelten) Themen, die aktuelle oder gebietsspezifische Informationen erfordern (zutreffend) Komplexe Probleme, die eine gründliche Recherche und Argumentation erfordern (anwendbar)
Einschränkungen Kein Zugang zu Echtzeit- oder Nachschulungsinformationen (nicht zutreffend) Schwierigkeiten beim Lösen komplexer Probleme, die ein Denken in mehreren Schritten erfordern (nicht zutreffend) Zeitaufwändiger als einfache LLM- oder RAG-Methoden (potenzielles Problem)
Mechanismus zur Erzeugung von Antworten Vollständig generiert aus vortrainiertem Wissen mit festen Wissensfristen Generierung von Antworten durch Zusammenfassen einzelner Suchergebnisse Autonome Intelligenz mit iterativem Suchen, Lesen und Schlussfolgern
Zugang zu Informationen in Echtzeit nicht unterstützt Unterstützung, Möglichkeit des Zugriffs auf aktuelle Informationen über die Schulungsfristen hinaus Unterstützung, Fähigkeit zur dynamischen Anpassung der nächsten Schritte auf der Grundlage der aktuellen Erkenntnisse
Vertiefte Forschungskapazität Zwänge सीमित Leistungsstark, mit der Möglichkeit, durch mehrere Such- und Argumentationszyklen tiefer in Themen einzutauchen und vor der Rückgabe von Ergebnissen eine Selbstbewertung vorzunehmen

 

Client-Integration und API-Details

Integration von Kunden Andererseits ist DeepSearch in hohem Maße kompatibel mit der Chat-API-Architektur von OpenAI. Benutzer können DeepSearch problemlos in jeden OpenAI-kompatiblen Chat-Client integrieren.

API-Endpunkte: https://deepsearch.jina.ai/v1/chat/completions

Modellname: jina-deepsearch-v1

API-Schlüssel: [Ihr Jina-API-Schlüssel] (Neuer API-Schlüssel bietet 1 Million freie Wörter)

 

Häufig gestellte Fragen (FAQ)

Was ist DeepSearch?

DeepSearch ist eine umfangreiche Sprachmodellierungs-API, die iterative Such-, Lese- und Schlussfolgerungsprozesse durchführt, bis die genaue Antwort auf eine Anfrage gefunden oder eine lexikalische Budgetgrenze erreicht ist.

Wie unterscheidet sich DeepSearch von OpenAI und Gemini's Deep Research Fähigkeiten?

Mit OpenAI und Zwillinge Im Gegensatz zu DeepSearch, das sich darauf konzentriert, durch iterative Suche genaue Antworten zu liefern, anstatt lange Inhalte zu erstellen. DeepSearch ist für schnelle, präzise Antworten aus der Tiefensuche im Web optimiert und nicht für die Erstellung umfassender Forschungsberichte.

Welche API-Schlüssel benötigen die Benutzer, um DeepSearch zu nutzen?

Die Nutzer benötigen einen Jina-API-Schlüssel. Jina AI bietet 1 Million kostenlose Wortelemente für den neuen API-Schlüssel an.

Was passiert, wenn DeepSearch die lexikalische Budgetgrenze erreicht? Gibt es dann unvollständige Antworten zurück?

Wenn DeepSearch die Grenze des lexikalischen Budgets erreicht, generiert das System die endgültige Antwort auf der Grundlage des gesamten gesammelten Wissens, ohne direkt abzubrechen oder unvollständige Ergebnisse zu liefern.

Kann DeepSearch die Richtigkeit der Antworten garantieren?

Die Antwort ist nicht absolut genau. Obwohl DeepSearch die Genauigkeit durch die iterative Suche verbessert, zeigen die Auswertungen, dass es bei den Testfragen eine Erfolgsquote von 751 TP3T erreicht, was deutlich besser ist als die 01 TP3T des Basismodells gemini-2.0-flash. DeepSearch hat jedoch noch Raum für Verbesserungen.

Wie lange dauert eine typische DeepSearch-Abfrage?

Die Abfragezeiten für DeepSearch sind sehr unterschiedlich. Je nach Auswertungsdaten können Abfragen zwischen 1 und 42 Schritten dauern, mit einem Durchschnitt von 4 Schritten und einer durchschnittlichen Abfragezeit von etwa 20 Sekunden. Einfache Abfragen können schnell abgeschlossen werden, während komplexe Forschungsfragen mehrere Iterationen erfordern und bis zu 120 Sekunden dauern können.

Wird DeepSearch mit jedem OpenAI-kompatiblen Client wie Chatwise, CherryStudio oder ChatBox funktionieren?

DeepSearch API (deepsearch.jina.ai/v1/chat/completions) ist vollständig kompatibel mit der OpenAI-API-Architektur, und der Modellname lautet jina-deepsearch-v1Dies ermöglicht es Benutzern, einfach von OpenAI zu DeepSearch zu wechseln und es mit ihrem lokalen Client oder einem beliebigen OpenAI-kompatiblen Client zu verwenden. Dies ermöglicht einen einfachen Wechsel von OpenAI zu DeepSearch und die Nutzung mit einem nativen Client oder einem beliebigen OpenAI-kompatiblen Client. Chatwise ist einer der offiziell empfohlenen Clients für ein besseres Erlebnis.

Wie hoch ist der Höchstsatz für die API?

Die Ratenbegrenzung hängt von der API-Schlüsselebene ab und reicht von 10 U/min bis 30 U/min. Für Anwendungsszenarien mit hohem Abfragevolumen ist die Ratenbegrenzung ein wichtiger Faktor.

<think> Was ist auf dem Etikett?

DeepSearch kapselt die Denkschritte in XML-Tags <code><think>...</think></code> in und Ausgabe vor der endgültigen Antwort. Dieser Ansatz folgt dem OpenAI-Streaming-Datenformat und verwendet spezielle Etiketten, um den Argumentationsprozess darzustellen.

Verwendet DeepSearch Jina Reader zum Suchen und Lesen im Internet?

Ja. Jina Leser wird für die Suche und das Lesen im Internet verwendet und ermöglicht dem System den effizienten Zugriff und die Verarbeitung von Webinhalten.

Warum verbraucht DeepSearch bei der Verarbeitung von Abfragen viele lexikalische Elemente?

In der Tat hat DeepSearch einen relativ hohen lexikalischen Verbrauch bei der Verarbeitung komplexer Anfragen, im Durchschnitt etwa 70.000 lexikalische Elemente, während herkömmliche groß angelegte Sprachmodelle in der Regel mit nur 500 lexikalischen Elementen antworten. Dies spiegelt die Art der DeepSearch-Forschung wider, ist aber auch mit höheren Kosten verbunden.

Gibt es eine Möglichkeit, die Anzahl der Schritte zu kontrollieren oder zu begrenzen?

DeepSearch wird in erster Linie durch das Wortbudget und nicht durch die Anzahl der Schritte gesteuert. Sobald das Budget überschritten ist, schaltet das System in den "Beast-Modus", um die endgültige Antwort zu generieren. Über DeepSearch reasoning_effort können Sie weitere Informationen in der Dokumentation nachlesen.

Wie zuverlässig sind die Referenzen in der Antwort?

Die Zuverlässigkeit der Referenzen ist entscheidend. Wenn das System zu dem Schluss kommt, dass die Antwort zwar klar und eindeutig ist, aber keine verlässlichen Quellenangaben enthält, setzt DeepSearch die Suche fort, bis eine glaubwürdige Quelle gefunden wird.

Kann DeepSearch Fragen zu zukünftigen Ereignissen bearbeiten?

Ja, DeepSearch ist in der Lage, Fragen zu zukünftigen Ereignissen zu bearbeiten, aber dies erfordert in der Regel eine Menge Forschung und Iteration. "Wer wird im Jahr 2028 Präsident?" Dieses Beispiel zeigt, dass DeepSearch spekulative Fragen mit vielen Forschungsiterationen bearbeiten kann, obwohl die Genauigkeit der Vorhersagen nicht garantiert werden kann.

Darf nicht ohne Genehmigung vervielfältigt werden:Leiter des AI-Austauschkreises " Jina's inferentielles Tiefensuchwerkzeug, DeepSearch API, geht live!
de_DEDeutsch