AI Personal Learning
und praktische Anleitung
讯飞绘镜

HiOllama: eine saubere Chat-Schnittstelle für die Interaktion mit nativen Ollama-Modellen

Allgemeine Einführung

HiOllama ist eine benutzerfreundliche Schnittstelle, die auf Python und Gradio basiert und für die Interaktion mit Ollama-Modellen entwickelt wurde. Sie bietet eine einfache und intuitive Weboberfläche, die Textgenerierung in Echtzeit und Funktionen zur Modellverwaltung unterstützt. Die Benutzer können Parameter wie die Temperatur und die maximale Anzahl von Token einstellen. Außerdem unterstützt es die Verwaltung mehrerer Ollama-Modelle und die benutzerdefinierte Konfiguration der Server-URL.

EMPFEHLUNG: Ollama gegen WebUI öffnen Die Integration ist einfacher, aber die Bereitstellungskosten sind etwas höher.


HiOllama:与本地Ollama模型交互的简洁聊天界面-1

 

Funktionsliste

  • Einfache und intuitive Webschnittstelle
  • Texterstellung in Echtzeit
  • Einstellbare Parameter (Temperatur, maximale Anzahl von Spielsteinen)
  • Funktionen der Modellverwaltung
  • Unterstützung für mehrere Ollama-Modelle
  • Benutzerdefinierte Server-URL-Konfiguration

 

Hilfe verwenden

Installationsschritte

  1. Klon-Lagerhaus:
    git clone https://github.com/smaranjitghose/HiOllama.git
    cd HiOllama
    
  2. Erstellen und aktivieren Sie eine virtuelle Umgebung:
    • Fenster.
      python -m venv env
      .\env\Scripts\activate
      
    • Linux/Mac.
      python3 -m venv env
      source env/bin/activate
      
  3. Installieren Sie die erforderlichen Pakete:
    pip install -r requirements.txt
    
  4. Installieren Sie Ollama (falls nicht bereits installiert):
    • Linux/Mac.
      curl -fsSL https://ollama.ai/install.sh | sh
      
    • Fenster.
      Installieren Sie zuerst WSL2 und führen Sie dann den oben genannten Befehl aus.

Verwendungsschritte

  1. Starten Sie den Ollama-Dienst:
    ollama serve
    
  2. Lauf HiOllama:
    python main.py
    
  3. Öffnen Sie Ihren Browser und navigieren Sie zu:
    http://localhost:7860
    

Schnellstart-Anleitung

  1. Wählen Sie ein Modell aus dem Dropdown-Menü.
  2. Geben Sie die Aufforderung in den Textbereich ein.
  3. Passen Sie die Temperatur und die maximale Anzahl von Spielsteinen nach Bedarf an.
  4. Klicken Sie auf "Generieren", um die Antwort zu erhalten.
  5. Verwenden Sie die Option Modellverwaltung, um neue Modelle einzuziehen.

konfigurieren.

Die Standardeinstellungen können in dermain.pyGeändert in:

DEFAULT_OLLAMA_URL = "http://localhost:11434"
DEFAULT_MODEL_NAME = "llama3"

allgemeine Probleme

  • VerbindungsfehlerOllama: Stellen Sie sicher, dass Ollama läuft (ollama serve), überprüfen Sie, ob die Server-URL korrekt ist, und stellen Sie sicher, dass der Port 11434 zugänglich ist.
  • Modell nicht gefunden: Ziehen Sie zuerst das Modell:ollama pull model_nameprüfen Sie die verfügbaren Modelle:ollama list.
  • Hafenkonflikt: inmain.pyÄndern Sie den Anschluss in der
    app.launch(server_port=7860)  # 更改为其他端口
Darf nicht ohne Genehmigung vervielfältigt werden:Leiter des AI-Austauschkreises " HiOllama: eine saubere Chat-Schnittstelle für die Interaktion mit nativen Ollama-Modellen
de_DEDeutsch