AI Personal Learning
und praktische Anleitung
CyberKnife-Zeichenspiegel

Tutorial zur Installation und Verwendung von Ollama

Dieser Artikel wurde am 2025-03-13 03:24 aktualisiert, ein Teil des Inhalts ist zeitkritisch, wenn er ungültig ist, bitte eine Nachricht hinterlassen!

Es gab schon viele frühere Ausgaben über Ollama Die Informationen in den Anleitungen zur Installation und zum Einsatz von Ollama sind ziemlich verstreut, daher haben wir dieses Mal eine vollständige Anleitung in einem Schritt zusammengestellt, wie man Ollama auf einem lokalen Computer verwendet. Dieses Tutorial ist für Anfänger gedacht, um die Fallstricke bei der Verwendung von Ollama zu vermeiden. Für diejenigen, die dazu in der Lage sind, empfehlen wir, die offizielle Ollama-Dokumentation zu lesen. Ich werde dann eine Schritt-für-Schritt-Anleitung zur Installation und Verwendung von Ollama geben.

Ollama Installation und Nutzung-1


 

Warum Ollama für die lokale Installation von Großmodellen wählen?

Viele Neulinge verstehen nicht, so wie ich, dass es andere, leistungsfähigere Online-Tools für die Bereitstellung großer Modelle gibt, wie z. B.:Bestandsaufnahme von LLM-Frameworks ähnlich wie Ollama: mehrere Optionen für lokal eingesetzte große Modelle Warum empfehlen Sie die Installation von Ollama am Ende?

In erster Linie ist es natürlich einfach, es auf Personalcomputern zu installieren, aber einer der wichtigsten Punkte ist, dass die Leistung des Modells für den Standalone-Einsatz besser auf die Parameter abgestimmt ist und die Installation nicht fehleranfällig ist. Zum Beispiel, die gleiche Konfiguration Computer-Installation QwQ-32B Verwenden Sie Ollama für eine möglichst reibungslose Nutzung, wechseln Sie zu "stärker". lama.cpp Es kann sein, dass es stecken bleibt und sogar die Ausgabe nicht korrekt ist. Es gibt viele Gründe dafür und ich kann sie nicht klar erklären, also werde ich es nicht tun. Sie sollten nur wissen, dass Ollama llama.cpp am Ende enthält und aufgrund einer besseren Optimierung stabiler läuft als llama.cpp.

 

Welche Arten von großen Modelldateien kann Ollama verarbeiten?

Ollama unterstützt Modelldateien in den folgenden zwei Formaten mit unterschiedlichen Inferenzmaschinen:

  1. GGUF-Format: durch lama.cpp Begründungen.
  2. Format der Sicherheitssensoren: durch vllm Begründungen.

Das bedeutet:

  • Wenn ein Modell im GGUF-Format verwendet wird, ruft Ollama die lama.cpp Effiziente CPU/GPU-Inferenz durchführen.
  • Wenn ein Modell im Safetensors-Format verwendet wird, benutzt Ollama die vllmZusätzlich zu den GPUs werden die GPUs häufig für Hochleistungsinferenzen eingesetzt.

Natürlich müssen Sie sich nicht darum kümmern, Sie müssen nur wissen, dass die meisten Dateien, die Sie installieren, im GGUF-Format vorliegen. Warum betonen Sie GGUF?

GGUF-Unterstützung Quantitativ (z. B. Q4, Q6_K)Die Fähigkeit zurBehält eine gute Inferenzleistung bei sehr geringem Grafik- und Speicherbedarf beiWährend Safetensensoren normalerweise vollständige FP16/FP32-Modelle sind, sind sie viel größer und benötigen mehr Ressourcen. Sie können hier mehr erfahren:Was ist Modellquantisierung: Erklärung der Datentypen FP32, FP16, INT8, INT4.

 

Ollama Mindestanforderungen an die Konfiguration

Betriebssystem: Linux: Ubuntu 18.04 oder höher, macOS: macOS 11 Big Sur oder höher

RAM: 8 GB für die 3B-Modelle, 16 GB für die 7B-Modelle, 32 GB für die 13B-Modelle

Speicherplatz: 12 GB für die Installation von Ollama und des Basismodells, zusätzlicher Speicherplatz für die Modelldaten, je nach verwendetem Modell. Es wird empfohlen, 6 GB Speicherplatz auf dem Laufwerk C zu reservieren.

CPU: Es wird empfohlen, jede moderne CPU mit mindestens 4 Kernen zu verwenden, und für den Betrieb des 13B-Modells wird eine CPU mit mindestens 8 Kernen empfohlen.

GPU (optional): Sie brauchen keinen Grafikprozessor, um Ollama auszuführen, aber er kann die Leistung verbessern, insbesondere bei der Ausführung größerer Modelle. Wenn Sie einen Grafikprozessor haben, können Sie damit das Training von benutzerdefinierten Modellen beschleunigen.

 

Ollama installieren

Weiter zu: https://ollama.com/download

Wählen Sie einfach nach der Computerumgebung, die Installation ist sehr einfach, das einzige, was hier zu beachten ist, dass die Netzwerkumgebung kann dazu führen, dass die Installation nicht richtig.

macOS-Installation: https://ollama.com/download/Ollama-darwin.zip

Windows-Installation: https://ollama.com/download/OllamaSetup.exe

Linux-Installation:curl -fsSL https://ollama.com/install.sh | sh

Docker-Image: (bitte informieren Sie sich selbst auf der offiziellen Website)

CPU oder Nvidia GPU:docker pull ollama/ollama

AMD-GPUs:docker pull ollama/ollama:rocm

Ollama Installation und Nutzung-1

 

Nach Abschluss der Installation sehen Sie das Ollama-Symbol in der unteren rechten Ecke Ihres Desktops. Wenn das Symbol eine grüne Warnung enthält, bedeutet dies, dass Sie ein Upgrade durchführen müssen.

Ollama Installation und Nutzung-1

 

Ollama-Einrichtung

Ollama ist sehr einfach zu installieren, aber die meisten Einstellungen müssen die "Umgebungsvariablen", die sehr unfreundlich zu Neulingen ist zu ändern, liste ich alle Variablen für diejenigen, die zu verweisen müssen (nicht brauchen, um zu erinnern):

parametrisch Beschriftung und Konfiguration
OLLAMA_MODELLE Gibt das Verzeichnis an, in dem die Modelldateien gespeichert sind; das Standardverzeichnis istAktuelles Benutzerverzeichnisübernehmen (Büro)  C:\Users%username%.ollama\models
Windows-System Es wird nicht empfohlen, sie auf dem Laufwerk C abzulegen.Die Discs können auf andere Discs gelegt werden (z.B. E:\ollama\-Modelle)
OLLAMA_HOST ist die Netzwerkadresse, auf die der ollama-Dienst hört, und der Standardwert ist127.0.0.1
Wenn Sie anderen Computern den Zugriff auf Ollama erlauben wollen (z.B. anderen Computern in einem LAN), muss derEmpfohlene Einstellungenin Ordnung sein 0.0.0.0
OLLAMA_PORT Gibt den Standardport an, auf dem der ollama-Dienst lauscht, der standardmäßig auf11434
Wenn es einen Portkonflikt gibt, können Sie die Einstellungen auf andere Ports ändern (z. B.8080usw.)
OLLAMA_ORIGINEN Gibt die Quelle der Anfrage vom HTTP-Client in einer durch Kommata getrennten Liste an.
Wenn die lokale Verwendung nicht eingeschränkt ist, kann es auf ein Sternchen gesetzt werden *
OLLAMA_KEEP_ALIVE Gibt die Überlebensdauer des großen Modells an, nachdem es in den Speicher geladen wurde; der Standardwert ist5mDas sind 5 Minuten.
(z. B. bedeutet eine einfache Zahl 300 300 Sekunden, 0 bedeutet, dass das Modell deinstalliert wird, sobald die Antwort auf die Anfrage verarbeitet wurde, und jede negative Zahl bedeutet, dass es am Leben gehalten wurde)
Es wird empfohlen, die Einstellung 24h Das Modell bleibt 24 Stunden lang im Speicher, was die Zugriffsgeschwindigkeit erhöht.
OLLAMA_NUM_PARALLEL Gibt die Anzahl der gleichzeitig verarbeiteten Anfragen an, Standardwert ist1 (d.h. einzelne gleichzeitige serielle Verarbeitung von Anfragen)
Empfehlungen werden an den tatsächlichen Bedarf angepasst
OLLAMA_MAX_QUEUE Gibt die Länge der Anfragewarteschlange an; der Standardwert ist512
Es wird empfohlen, die Länge der Warteschlange an den tatsächlichen Bedarf anzupassen; Anfragen, die diese Länge überschreiten, werden verworfen.
OLLAMA_DEBUG bezeichnet die Ausgabe des Debug-Protokolls, das in der Phase der Anwendungsentwicklung auf die folgenden Werte eingestellt werden kann1 (d.h. Ausgabe detaillierter Protokollinformationen für die Fehlersuche)
OLLAMA_MAX_LOADED_MODELS Gibt die maximale Anzahl von Modellen an, die gleichzeitig in den Speicher geladen werden, Standardwert ist1 (d.h. es kann nur 1 Modell im Speicher sein)

 

1. das Download-Verzeichnis für große Modelldateien ändern

Auf Windows-Systemen werden die von Ollama heruntergeladenen Modelldateien standardmäßig in einem bestimmten Verzeichnis unter dem Ordner des Benutzers gespeichert. Der Standardpfad lautet in der RegelC:\Benutzer\\.ollama\models. Hier.bezieht sich auf den aktuellen Windows-System-Anmeldebenutzernamen.

Ollama Installation und Nutzung-1

Wenn der Login-Benutzername des Systems zum Beispielyangfankann der Standardspeicherpfad der Modelldatei wie folgt lautenC:\Users\yangfan\.ollama\models\manifests\registry.ollama.ai. In diesem Verzeichnis finden die Nutzer alle über Ollama heruntergeladenen Modelldateien.

Hinweis: Neuere Systeminstallationspfade sind im Allgemeinen:C:\Benutzer\\AppData\Local\Programme\Ollama

Große Modell-Downloads können leicht mehrere Gigabyte groß sein. Wenn der Speicherplatz auf Ihrem Laufwerk C klein ist, sollten Sie als erstes das Download-Verzeichnis für große Modelldateien ändern.

 

1. den Einstiegspunkt für Umgebungsvariablen finden

Der einfachste Weg: Win+R, um das Ausführungsfenster zu öffnen, geben Sie ein sysdm.cplWenn Sie diese Option verwenden möchten, öffnen Sie die Systemeigenschaften, wählen Sie die Registerkarte Erweitert und klicken Sie auf Umgebungsvariablen.

Ollama Installation und Nutzung-1

Andere Methoden:

1) Start->Einstellungen->About->Erweiterte Systemeinstellungen->Systemeigenschaften->Umgebungsvariablen.

2) Dieser Computer -> Rechtsklick -> Eigenschaften -> Erweiterte Systemeinstellungen -> Umgebungsvariablen.

3) Start->Systemsteuerung->System und Sicherheit->System->Erweiterte Systemeinstellungen->Systemeigenschaften->Umgebungsvariablen.

4. das Suchfeld unten auf dem Desktop->Eingabe->Umgebungsvariablen

Nach der Eingabe sehen Sie den folgenden Bildschirm:

Ollama Installation und Nutzung-1

2. die Umgebungsvariablen ändern

Suchen Sie unter Systemvariablen die Variable OLLAMA_MODELS und klicken Sie auf Neu, wenn sie dort nicht zu finden ist.

Ollama Installation und Nutzung-1

Ollama Installation und Nutzung-1

Wenn OLLAMA_MODELS bereits existiert, markieren Sie es und doppelklicken Sie mit der linken Maustaste, oder markieren Sie es und klicken Sie auf "Bearbeiten".

Ollama Installation und Nutzung-1

Der Wert der Variablen wird in das neue Verzeichnis geändert, hier habe ich es von Laufwerk C auf Laufwerk E geändert, das mehr Speicherplatz bietet.

Ollama Installation und Nutzung-1

Nach dem Speichern empfiehlt es sich, den Computer neu zu starten und ihn erneut zu verwenden, um ein sichereres Ergebnis zu erzielen.

2. die Standard-Zugangsadresse und den Standard-Port ändern

Geben Sie im Browser die URL http://127.0.0.1:11434/ ein. Sie werden die folgende Meldung sehen, die anzeigt, dass das Programm läuft, es gibt hier einige Sicherheitsrisiken, die noch in den Umgebungsvariablen geändert werden müssen.

Ollama Installation und Nutzung-1

 

1.ändern Sie OLLAMA_HOST

Wenn nicht, fügen Sie eine neue hinzu, wenn es 0.0.0.0 ist, um den Zugang zum Extranet zu ermöglichen, ändern Sie es in 127.0.0.1

Ollama Installation und Nutzung-1

2.ändern Sie OLLAMA_PORT

Wenn Sie ihn nicht haben, fügen Sie ihn hinzu, und ändern Sie 11434 in einen beliebigen Port, z. B.:11331(Der Bereich für die Portänderung reicht von 1 bis 65535), beginnen Sie mit 1000, um Portkonflikte zu vermeiden. Beachten Sie die Verwendung des englischen ":".

Ollama Installation und Nutzung-1

Vergessen Sie nicht, Ihren Computer neu zu starten, um die empfohlenen Informationen über die Sicherheit von Ollama zu lesen:DeepSeek setzt Ollama in Brand, ist Ihr lokaler Einsatz sicher? Hüten Sie sich vor "gestohlener" Arithmetik!

 

Einbau von Großmodellen

Weiter zur URL: https://ollama.com/search

 

Ollama Installation und Nutzung-1

 

Modell auswählen, Modellgröße auswählen, Kopierbefehl

Ollama Installation und Nutzung-1

 

Zugang zu Befehlszeilentools

Ollama Installation und Nutzung-1

 

Fügen Sie den Befehl ein, um es automatisch zu installieren

Ollama Installation und Nutzung-1

 

Es wird hier heruntergeladen, wenn es also langsam ist, sollten Sie zu einer glücklicheren Internetumgebung wechseln!

Ollama Installation und Nutzung-1

 

Wenn Sie große Modelle herunterladen möchten, die Ollama nicht anbietet, können Sie das natürlich tun, die meisten davon sind GGUF-Dateien auf huggingface, und ich habe eine spezielle quantisierte Version der DeepSeek-R1 32B wird als Beispiel für eine Installationsdemonstration verwendet.

 

1. die Installation des quantitativen Versionierungsmodells von Huggingface im Basisbefehlsformat

Merken Sie sich das folgende Format für den Installationsbefehl

 

ollama run hf.co/{Nutzername}:{Reponame}

 

2. die Auswahl der quantitativen Version

Liste aller quantitativen Versionen: https://huggingface.co/unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF/tree/main

Diese Installation verwendet: Q5_K_M

 

3. der Befehl "Spleiß-Installation

Bereitstellung der langfristigen Verfügbarkeit von DeepSeek-R1 32B Quantitative Version-1 ohne lokale GPUs

 

{Benutzername}=unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF

{reponame}=Q5_K_M

Splice, um den vollständigen Installationsbefehl zu erhalten:ollama run hf.co/unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF:Q5_K_M

 

4. die Installation in Ollama durchführen

Führen Sie den Installationsbefehl aus

Bereitstellung der langfristigen Verfügbarkeit von DeepSeek-R1 32B Quantitative Version-1 ohne lokale GPUs

Es kann zu Netzwerkfehlern kommen (viel Glück dabei), wiederholen Sie den Installationsbefehl noch ein paar Mal...

Funktioniert immer noch nicht? Versuchen Sie den folgenden Befehl.hf.co/Der Abschnitt erhält folgenden Wortlauthttps://hf-mirror.com/(Wechsel zur inländischen Mirror-Adresse), sieht das endgültige Patchwork des vollständigen Installationsbefehls wie folgt aus:

ollama run https://hf-mirror.com/unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF:Q5_K_M

Eine vollständige Anleitung für diesen Abschnitt ist verfügbar:Privater Einsatz ohne lokale GPUs DeepSeek-R1 32B

 

Ollama Grundlegende Befehle

Befehl Beschreibungen
ollama dienen Ollama starten
ollama erstellen Erstellen von Modellen aus Modelldateien
Ollama-Show Anzeige von Modellinformationen
Ollama-Lauf Betriebsmodell
Haltestelle Ollama Anhalten eines laufenden Modells
Ollama ziehen Abrufen von Modellen aus der Registry
Ollama-Schub Modelle in die Registry verschieben
Ollama-Liste Alle Modelle auflisten
ollama ps Liste laufender Modelle
ollama cp Replikationsmodelle
ollama rm Modell löschen
ollama Hilfe Anzeige von Hilfeinformationen zu einem beliebigen Befehl
symbolisieren Beschreibungen
-h, --help Hilfeinformationen für Ollama anzeigen
-v, --version Anzeige von Versionsinformationen

Wenn Sie Befehle auf mehreren Zeilen eingeben, können Sie die """ Führen Sie einen Zeilenvorschub durch.

Ollama Installation und Nutzung-1

ausnutzen """ Zeilenvorschub am Ende.

Ollama Installation und Nutzung-1

Um den Ollama-Modellinferenzdienst zu beenden, können Sie die /Wiedersehen.

Ollama Installation und Nutzung-1

Verwendung von Ollama in einem nativen KI-Dialogwerkzeug

Die meisten der gängigen nativen KI-Dialogwerkzeuge sind bereits standardmäßig an Ollama angepasst und erfordern keine weiteren Einstellungen. Zum Beispiel Seite Assist OpenwebUI.

Bei einigen lokalen KI-Dialog-Tools müssen Sie jedoch die API-Adresse selbst eingeben.http://127.0.0.1:11434/(beachten Sie, ob der Anschluss geändert wurde)

Ollama Installation und Nutzung-1

Einige webbasierte AI-Dialog-Tools unterstützen die Konfiguration, zum Beispiel NächsterChat :

Ollama Installation und Nutzung-1

Wenn Sie möchten, dass Ollama auf Ihrem lokalen Computer läuft und vollständig für die externe Nutzung zugänglich ist, müssen Sie cpolar oder ngrok selbst erlernen, was den Rahmen des Anfängerprogramms sprengen würde.

Der Artikel scheint sehr lang zu sein, in der Tat, innerhalb der 4 sehr einfachen Wissen Punkte, lernen die künftige Nutzung von Ollama im Grunde ungehindert, lassen Sie uns noch einmal überprüfen:

1. die Einstellung von Umgebungsvariablen

2. zwei Möglichkeiten zur Installation eines großen Modells

3. erinnern Sie sich an die grundlegenden Befehle zum Ausführen und Löschen von Modellen

4. die Verwendung in verschiedenen Mandanten

CDN1
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " Tutorial zur Installation und Verwendung von Ollama

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)