AI Personal Learning
und praktische Anleitung

Online-Einsatz des Open-Source-Modells DeepSeek-R1 mit kostenloser GPU-Leistung

Dieser Artikel wurde am 2025-01-24 02:43 aktualisiert, ein Teil des Inhalts ist zeitkritisch, falls er ungültig ist, bitte eine Nachricht hinterlassen!

Danke an Tencent Cloud Cloud Studio und DeepSeek DeepSeek-R1.

Angesichts der rasanten Entwicklung von KI- und Big-Model-Technologien wollen immer mehr Entwickler und Forscher Big-Models selbst ausprobieren und feinabstimmen, um diese fortschrittlichen Technologien besser zu verstehen und anzuwenden. Die hohen Kosten der GPU-Arithmetik werden jedoch oft zu einem Engpass, der jeden von der Erforschung abhält. Glücklicherweise stellt Tencent Cloud Studio kostenlose GPU-Arithmetik-Ressourcen zur Verfügung. In Kombination mit den von DeepSeek eingeführten DeepSeek-R1 Big Models können wir diese leistungsstarken Modelle problemlos in der Cloud einsetzen und ausführen, ohne einen Cent auszugeben.


In diesem Artikel wird detailliert beschrieben, wie DeepSeek-R1 Ollama unter Verwendung der kostenlosen GPU-Ressourcen von Tencent Cloud Studio eingesetzt und mit ihm interagiert werden kann. Wir beginnen mit der Nutzung von Cloud Studio, stellen nach und nach die Installation und Konfiguration von Ollama vor und zeigen schließlich, wie man DeepSeek-R1 einsetzt und einen Dialog mit ihm führt.

1. das Cloud Studio

1.1 Einführung in Cloud Studio

Tencent Cloud Cloud Studio ist eine Cloud-basierte integrierte Entwicklungsumgebung (IDE), die eine Fülle von Entwicklungstools und Ressourcen bereitstellt, um Entwicklern zu helfen, effizienter zu programmieren, zu debuggen und bereitzustellen. Kürzlich startete Cloud Studio kostenlose GPU-Computing-Ressourcen, Benutzer können jeden Monat 10.000 Minuten GPU-Server kostenlos nutzen, konfiguriert mit 16G Videospeicher, 32G RAM und 8-Core-CPU. dies ist zweifellos ein großer Segen für Entwickler, die High-Performance-Computing-Ressourcen benötigen. (Denken Sie daran, Punkt, um die Maschine nach Gebrauch zu schließen, die nächste Feinabstimmung und dann öffnen Sie es, die Umwelt wird automatisch gespeichert, 10.000 Minuten pro Monat kann einfach nicht aufgebraucht werden)

Online-Einsatz des DeepSeek-R1 Open-Source-Modells mit kostenloser GPU-Rechenleistung-1

 

1.2 Registrierung und Anmeldung

Um Cloud Studio zu nutzen, müssen Sie zunächst ein Tencent Cloud-Konto registrieren. Sobald die Registrierung abgeschlossen ist, melden Sie sich bei Cloud Studio an und Sie sehen eine übersichtliche Benutzeroberfläche, die eine Vielzahl von Entwicklungsvorlagen zur Auswahl bietet. Diese Vorlagen decken eine breite Palette von Szenarien ab, von der grundlegenden Python-Entwicklung bis hin zu komplexen großen Modellimplementierungen. Vergessen Sie nicht, die Pro-Version einzugeben.

1.3 Auswahl der Ollama-Vorlage

Da unser Ziel darin besteht, die DeepSeek-R1 großes Modell, also können wir einfach wählen Ollama Templates.Ollama ist ein Tool zur Verwaltung und Ausführung großer Modelle, das den Prozess des Herunterladens, der Installation und der Ausführung von Modellen vereinfacht. Nach der Auswahl einer Ollama-Vorlage konfiguriert Cloud Studio automatisch die Ollama-Umgebung für uns, sodass eine manuelle Installation nicht mehr erforderlich ist.

Online-Einsatz des DeepSeek-R1 Open-Source-Modells mit kostenloser GPU-Rechenleistung-1

 

Warten Sie auf den Start, klicken Sie auf Enter (Ollama ist bereits in der Umgebung installiert, führen Sie einfach den Installationsbefehl direkt aus)

Online-Einsatz des DeepSeek-R1 Open-Source-Modells mit kostenloser GPU-Rechenleistung-1

 

2. ollama

2.1 Einführung in Ollama

Ollama ist ein Open-Source-Tool für die Verwaltung und Ausführung verschiedener großer Modelle. Es unterstützt eine Vielzahl von Modellformaten und kann automatisch Modellabhängigkeiten handhaben, was die Modellbereitstellung und -ausführung sehr einfach macht.Ollamas offizielle Website bietet eine Fülle von Modellressourcen, die Benutzer können das richtige Modell entsprechend ihren Bedürfnissen zum Herunterladen und Ausführen auswählen.

2.2 Modellparameter und Auswahl

Auf der offiziellen Website von Ollama ist die Anzahl der Parameter jedes Modells am unteren Rand des Modells angegeben, z. B. 7B, 13B, 70B usw. Dabei steht "B" für Milliarde. Das "B" steht hier für Milliarde und gibt die Anzahl der Parameter des Modells an. Je größer die Anzahl der Parameter ist, desto komplexer und leistungsfähiger ist das Modell, aber es verbraucht auch mehr Rechenressourcen.

Für die kostenlosen GPU-Ressourcen (16G Videospeicher, 32G RAM, 8-Kern-CPU), die von Tencent Cloud Studio bereitgestellt werden, können wir 8B- oder 13B-Modelle für den Einsatz wählen. Wenn Sie eine höhere Hardwarekonfiguration haben, können Sie auch Modelle mit größeren Parametern ausprobieren, um bessere Ergebnisse zu erzielen.

2.3 Installation von Ollama

Nach der Auswahl der Ollama-Vorlage in Cloud Studio wird das System automatisch Ollama für uns installieren. Wenn Sie Ollama in anderen Umgebungen verwenden, können Sie es mit dem folgenden Befehl installieren:

curl -fsSL https://ollama.com/install.sh | sh

Sobald die Installation abgeschlossen ist, können Sie mit dem folgenden Befehl überprüfen, ob Ollama erfolgreich installiert wurde:

ollama --version

Der nächste Schritt ist die Einführung von Ollama. DeepSeek-R1 ...

 

3. kostenlose Bereitstellung von DeepSeek-R1

3.1 Einführung in DeepSeek-R1

DeepSeek-R1 ist ein leistungsstarkes, großes Modell von DeepSeek, das bei einer Reihe von Aufgaben zur Verarbeitung natürlicher Sprache, insbesondere in den Bereichen Texterzeugung, Dialogsysteme und Fragen und Antworten, gute Leistungen erbringt. Die Anzahl der Parameter von DeepSeek-R1 reicht von 8B bis 70B, so dass der Benutzer je nach seiner Hardwarekonfiguration das richtige Modell für den Einsatz wählen kann.

3.2 Herunterladen und Bereitstellen

Die Bereitstellung von DeepSeek-R1 ist sehr einfach, da Cloud Studio Ollama bereits automatisch installiert. Wir müssen nur den folgenden Befehl ausführen:

ollama run deepseek-r1:8b

Online-Einsatz des DeepSeek-R1 Open-Source-Modells mit kostenloser GPU-Rechenleistung-1

 

Alle verfügbaren Modelle von DeepSeek-R1 finden Sie hier: https://ollama.com/library/deepseek-r1 , empfohlen! ollama run deepseek-r1:14b (Dies ist das destillierte Qwen-Modell.)

 

3.3 Modellläufe

Nachdem Sie gewartet haben, bis das Modell fertig heruntergeladen ist, startet Ollama automatisch DeepSeek-R1 und wechselt in den interaktiven Modus. An diesem Punkt können Sie Fragen oder Befehle direkt in das Terminal eingeben, um mit DeepSeek-R1 zu sprechen.

 

4. mit DeepSeek-R1 zu chatten beginnen

4.1 Grundlegender Dialog

Der Dialog mit DeepSeek-R1 ist sehr einfach, Sie müssen nur Ihre Frage oder Anweisung in das Terminal eingeben und das Modell wird sofort eine Antwort generieren.

Online-Einsatz des DeepSeek-R1 Open-Source-Modells mit kostenloser GPU-Rechenleistung-1

4.2 Komplexe Aufgaben

  • Beispiel: Codegenerierung mit DeepSeek-R1

Online-Einsatz des DeepSeek-R1 Open-Source-Modells mit kostenloser GPU-Rechenleistung-1

 

4.3 Feinabstimmung des Modells

Wenn Sie mit der Leistung von DeepSeek-R1 nicht zufrieden sind oder möchten, dass das Modell bei bestimmten Aufgaben besser abschneidet, können Sie versuchen, eine Feinabstimmung des Modells vorzunehmen. Der Prozess der Feinabstimmung umfasst in der Regel die Vorbereitung einiger domänenspezifischer Datensätze und das erneute Trainieren des Modells mit diesen Datensätzen.Ollama bietet einfache Schnittstellen, die den Benutzern bei der Feinabstimmung des Modells helfen.

5. zusammenfassung

Mit den kostenlosen GPU-Ressourcen von Tencent Cloud Cloud Studio in Kombination mit Ollama und DeepSeek-R1 können wir große Modelle problemlos in der Cloud bereitstellen und ausführen, ohne uns um hohe Hardwarekosten sorgen zu müssen. Ob Sie eine einfache Unterhaltung führen oder an komplexen Aufgaben arbeiten, DeepSeek-R1 bietet leistungsstarke Unterstützung. Wir hoffen, dass dieser Artikel Ihnen helfen kann, DeepSeek-R1 reibungslos einzusetzen und Ihre Reise zur Erforschung großer Modelle zu beginnen.

Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " Online-Einsatz des Open-Source-Modells DeepSeek-R1 mit kostenloser GPU-Leistung

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)