Allgemeine Einführung
HiOllama ist eine benutzerfreundliche Schnittstelle, die auf Python und Gradio basiert und für die Interaktion mit Ollama-Modellen entwickelt wurde. Sie bietet eine einfache und intuitive Weboberfläche, die Textgenerierung in Echtzeit und Funktionen zur Modellverwaltung unterstützt. Die Benutzer können Parameter wie die Temperatur und die maximale Anzahl von Token einstellen. Außerdem unterstützt es die Verwaltung mehrerer Ollama-Modelle und die benutzerdefinierte Konfiguration der Server-URL.
Funktionsliste
- Einfache und intuitive Webschnittstelle
- Texterstellung in Echtzeit
- Einstellbare Parameter (Temperatur, maximale Anzahl von Spielsteinen)
- Funktionen der Modellverwaltung
- Unterstützung für mehrere Ollama-Modelle
- Benutzerdefinierte Server-URL-Konfiguration
Hilfe verwenden
Installationsschritte
- Klon-Lagerhaus:
git clone https://github.com/smaranjitghose/HiOllama.git cd HiOllama
- Erstellen und aktivieren Sie eine virtuelle Umgebung:
- Fenster.
python -m venv env . \env\Skripte\aktivieren
- Linux/Mac.
python3 -m venv env Quelle env/bin/activate
- Fenster.
- Installieren Sie die erforderlichen Pakete:
pip install -r anforderungen.txt
- Installieren Sie Ollama (falls nicht bereits installiert):
- Linux/Mac.
curl -fsSL https://ollama.ai/install.sh | sh
- Fenster.
Installieren Sie zuerst WSL2 und führen Sie dann den oben genannten Befehl aus.
- Linux/Mac.
Verwendungsschritte
- Starten Sie den Ollama-Dienst:
ollama dienen
- Lauf HiOllama:
python main.py
- Öffnen Sie Ihren Browser und navigieren Sie zu:
http://localhost:7860
Schnellstart-Anleitung
- Wählen Sie ein Modell aus dem Dropdown-Menü.
- Geben Sie die Eingabeaufforderung in den Textbereich ein.
- Passen Sie die Temperatur und die maximale Anzahl von Spielsteinen nach Bedarf an.
- Klicken Sie auf "Generieren", um die Antwort zu erhalten.
- Verwenden Sie die Option Modellverwaltung, um neue Modelle einzuziehen.
konfigurieren.
Die Standardeinstellungen können in dermain.py
Geändert in:
DEFAULT_OLLAMA_URL = "http://localhost:11434"
DEFAULT_MODEL_NAME = "llama3"
allgemeine Probleme
- VerbindungsfehlerOllama: Stellen Sie sicher, dass Ollama läuft (
ollama dienen
), überprüfen Sie, ob die Server-URL korrekt ist, und stellen Sie sicher, dass der Port 11434 zugänglich ist. - Modell nicht gefunden: Ziehen Sie zuerst das Modell:
ollama pull model_name
prüfen Sie die verfügbaren Modelle:Ollama-Liste
. - Hafenkonflikt: in
main.py
Ändern Sie den Anschluss in derapp.launch(server_port=7860) # Wechsel zu einem anderen Port