AI Personal Learning
und praktische Anleitung
Ali - bemalter Frosch

Top 5 KI-Inferenzplattformen, die eine kostenlose Vollversion von DeepSeek-R1 verwenden

Aufgrund des hohen Verkehrsaufkommens und eines Cyberangriffs sind die DeepSeek-Website und die App seit einigen Tagen nicht erreichbar und die API funktioniert nicht.

blank


Zuvor haben wir bereits die Methode zur lokalen Bereitstellung von DeepSeek-R1 vorgestellt (sieheLokaler Einsatz von DeepSeek-R1), aber der durchschnittliche Benutzer ist auf eine Hardwarekonfiguration beschränkt, die es schwierig macht, selbst ein 70b-Modell zu betreiben, geschweige denn ein vollständiges 671b-Modell.

Glücklicherweise haben alle großen Plattformen Zugang zu DeepSeek-R1, so dass Sie es als flachen Ersatz ausprobieren können.

 

I. NVIDIA NIM-Mikrodienste

NVIDIA Build: Integrieren Sie mehrere KI-Modelle und erleben Sie sie kostenlos
Website: https://build.nvidia.com/deepseek-ai/deepseek-r1

NVIDIA hat den vollen Volumenparameter 671B des DeepSeek-R1 Modelle, die Web-Version ist einfach zu bedienen, und Sie können das Chat-Fenster sehen, wenn Sie darauf klicken:

blank

Auf der rechten Seite befindet sich auch die Code-Seite:

blank

Testen Sie es einfach:

blank

Unterhalb der Chatbox können Sie auch einige Parameter einschalten (die in den meisten Fällen voreingestellt werden können):

blank

Die ungefähre Bedeutung und Funktion dieser Optionen ist im Folgenden aufgeführt:

Temperatur:
Je höher der Wert, desto zufälliger ist die Ausgabe und desto kreativer können die Antworten ausfallen.

Oben P (nukleare Probenahme):
Höhere Werte halten mehr Token von wahrscheinlicher Qualität zurück und erzeugen mehr Vielfalt

Häufigkeit der Strafe:
Höhere Werte bestrafen hochfrequente Wörter stärker und reduzieren Ausführlichkeit oder Wiederholungen

Strafe für Anwesenheit:
Je höher der Wert, desto eher ist das Modell geneigt, neue Wörter auszuprobieren

Maximale Token:
Je höher der Wert, desto länger ist die potenzielle Länge der Antwort

Halt!
Stoppen Sie die Ausgabe, wenn bestimmte Zeichen oder Sequenzen generiert werden, um zu verhindern, dass die Generierung zu lange dauert oder die Themen ausgehen.

Aufgrund der zunehmenden Zahl weißer Freier (siehe die Anzahl der Personen in der Warteschlange im nachstehenden Schaubild) liegt die NIM derzeit etwas zurück:

blank

Gibt es bei NVIDIA auch zu wenig Grafikkarten?

Die NIM-Microservices unterstützen auch API-Aufrufe zu DeepSeek-R1, aber Sie müssen sich für ein Konto mit einer E-Mail-Adresse anmelden:

blank

Das Anmeldeverfahren ist relativ einfach und erfordert lediglich eine E-Mail-Verifizierung:

blank

Nach der Registrierung können Sie oben rechts in der Chat-Oberfläche auf "Mit dieser NIM bauen" klicken, um einen API-Schlüssel zu generieren. Derzeit erhalten Sie für die Registrierung 1.000 Punkte (1.000 Interaktionen), die Sie aufbrauchen und dann mit einer neuen E-Mail-Adresse erneut registrieren können.

blank

Die NIM-Microservices-Plattform bietet auch Zugang zu vielen anderen Modellen:

blank

 

II. Microsoft Azure

Website:
https://ai.azure.com

Mit Microsoft Azure können Sie einen Chatbot erstellen und mit dem Modell über einen Chat-Spielplatz interagieren.

blank

Die Anmeldung bei Azure ist mit viel Aufwand verbunden: Zunächst müssen Sie ein Microsoft-Konto erstellen (melden Sie sich einfach an, wenn Sie bereits eines haben):

blank

Für die Erstellung eines Kontos ist auch eine E-Mail-Verifizierung erforderlich:

blank

Beweise zum Schluss, dass du ein Mensch bist, indem du 10 aufeinanderfolgende Fragen aus der Unterwelt beantwortest:

blank

blank

Es reicht nicht aus, hierher zu kommen, um ein Abonnement abzuschließen:

blank

Überprüfen Sie die Handynummer sowie die Kontonummer und andere Informationen:

blank

Wählen Sie dann "Keine technische Unterstützung":

blank

Hier können Sie das Cloud-Deployment starten, im "Model Catalogue" sehen Sie das DeepSeek-R1-Modell an prominenter Stelle:

blank

Klicken Sie dann auf der nächsten Seite auf "Bereitstellen":

blank

Als nächstes müssen Sie "Neues Projekt erstellen" wählen:

blank

Geben Sie dann alle Standardwerte ein und klicken Sie auf "Weiter":

blank

Klicken Sie anschließend auf "Erstellen":

blank

Die Erstellung unter dieser Seite beginnt, und es dauert eine Weile zu warten:

blank

Wenn Sie fertig sind, gelangen Sie auf diese Seite, wo Sie auf "Bereitstellen" klicken können, um zum nächsten Schritt zu gelangen:

blank

Sie können auch unter "Preise und Bedingungen" oben nachsehen, ob die Nutzung kostenlos ist:

blank

Fahren Sie auf dieser Seite fort, indem Sie auf "Deployment" und dann auf "Open in Playground" klicken:

blank

Dann kann der Dialog beginnen:

blank

Azure verfügt auch über eine NIM-ähnliche Parametereinstellung:

blank

Als Plattform gibt es viele Modelle, die eingesetzt werden können:

blank

Auf bereits eingesetzte Modelle kann in Zukunft über "Playground" oder "Model + Endpoint" im linken Menü schnell zugegriffen werden:

blank

III. Amazon AWS

Website:
https://aws.amazon.com/cn/blogs/aws/deepseek-r1-models-now-available-on-aws

Der DeepSeek-R1 ist ebenfalls an prominenter Stelle zu sehen und aufgereiht.

blank

Amazon AWS Registrierungsprozess und Microsoft Azure ist fast so mühsam, müssen beide in der Zahlungsmethode zu füllen, sondern auch Telefon Verifizierung + Stimme Überprüfung, hier wird nicht im Detail zu beschreiben:

blank

blank

Der genaue Bereitstellungsprozess ist ähnlich wie bei Microsoft Azure:

blank

IV. Zerebralien

Cerebras: die weltweit schnellste KI-Inferenz- und High-Performance-Computing-Plattform auf dem Markt
Website: https://cerebras.ai

Im Gegensatz zu mehreren großen Plattformen verwendet Cerebras ein 70b-Modell und behauptet, "57 Mal schneller als GPU-Lösungen" zu sein:

blank

Sobald die E-Mail-Registrierung eingegeben ist, können Sie im Dropdown-Menü oben DeepSeek-R1 auswählen:

blank

Die realen Geschwindigkeiten sind tatsächlich schneller, wenn auch nicht so übertrieben wie behauptet:

blank

V. Groq

Groq: Anbieter von Lösungen zur Beschleunigung der Inferenz großer AI-Modelle, kostenlose Hochgeschwindigkeitsschnittstelle für große Modelle
Website: https://groq.com/groqcloud-makes-deepseek-r1-distill-llama-70b-available

blank

Sobald die E-Mail registriert und eingegeben ist, stehen auch Modelle zur Auswahl:

blank

Es ist auch schnell, aber auch hier fühlt sich 70b ein bisschen zurückgebliebener an als die Cerebras?

blank

Beachten Sie, dass Sie direkt auf die Chat-Schnittstelle zugreifen können, wenn Sie eingeloggt sind:
https://console.groq.com/playground?model=deepseek-r1-distill-llama-70b

 

Vollständige DeepSeek V3 und R1 Liste:

AMD

AMD Instinct™ GPUs treiben DeepSeek-V3 an: Revolutionierung der KI-Entwicklung mit SGLang (AMD Instinct™ GPUs treiben DeepSeek-V3 an: Revolutionierung der KI-Entwicklung mit SGLang)

NVIDIA

DeepSeek-R1 NVIDIA-Modellkarte (DeepSeek-R1 NVIDIA-Modellkarte)

Microsoft Azure

Ausführung von DeepSeek-R1 auf einer einzelnen NDv5 MI300X-VM (Ausführung von DeepSeek-R1 auf einer einzelnen NDv5 MI300X VM)

Baseten

https://www.baseten.co/library/deepseek-v3/

Novita AI

Novita AI verwendet SGLang mit DeepSeek-V3 für OpenRouter (Novita AI verwendet SGLang zur Ausführung von DeepSeek-V3 für OpenRouter)

ByteDance Volcengine

Das DeepSeek-Modell in Originalgröße landet auf der Volcano Engine!

DataCrunch

Einsatz von DeepSeek-R1 671B auf 8x NVIDIA H200 mit SGLang (Einsatz von DeepSeek-R1 671B auf 8x NVIDIA H200 mit SGLang)

Hyperbolisch

https://x.com/zjasper666/status/1872657228676895185

Vultr

Einsatz des Deepseek V3 Large Language Model (LLM) mit SGLang (Wie man mit SGLang einsetzt) Deepseek V3 Large Language Modelling (LLM))

RunPod

Was ist neu für die serverlose LLM-Nutzung in RunPod im Jahr 2025? (Welche neuen Funktionen werden von Serverless LLM in RunPod im Jahr 2025 genutzt?)

CDN1
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " Top 5 KI-Inferenzplattformen, die eine kostenlose Vollversion von DeepSeek-R1 verwenden

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)