HiOllama : une interface de chat propre pour interagir avec les modèles natifs d'Ollama

Introduction générale

HiOllama est une interface conviviale construite sur Python et Gradio conçue pour interagir avec les modèles Ollama. Il s'agit d'une interface web simple et intuitive qui prend en charge la génération de texte en temps réel et les fonctions de gestion des modèles. Les utilisateurs peuvent ajuster des paramètres tels que la température et le nombre maximum de jetons, et il prend en charge la gestion de plusieurs modèles Ollama et la configuration d'URL de serveur personnalisées.

RECOMMANDATION : Ollama vs. Ouvrir l'interface WebUI L'intégration est plus facile, mais les coûts de déploiement sont légèrement plus élevés.

HiOllama:与本地Ollama模型交互的简洁聊天界面

 

Liste des fonctions

  • Interface web simple et intuitive
  • Génération de texte en temps réel
  • Paramètres réglables (température, nombre maximum de jetons)
  • Fonctions de gestion des modèles
  • Prise en charge de plusieurs modèles Ollama
  • Configuration personnalisée de l'URL du serveur

 

Utiliser l'aide

Étapes de l'installation

  1. Entrepôt de clonage :
    git clone https://github.com/smaranjitghose/HiOllama.git
    cd HiOllama
    
  2. Créer et activer un environnement virtuel :
    • Fenêtres.
      python -m venv env
      .\env\Scripts\activate
      
    • Linux/Mac.
      python3 -m venv env
      source env/bin/activate
      
  3. Installez les paquets nécessaires :
    pip install -r requirements.txt
    
  4. Installer Ollama (si ce n'est pas déjà fait) :
    • Linux/Mac.
      curl -fsSL https://ollama.ai/install.sh | sh
      
    • Fenêtres.
      Installez d'abord WSL2, puis exécutez la commande ci-dessus.

Étapes d'utilisation

  1. Démarrer le service Ollama :
    ollama serve
    
  2. Exécuter HiOllama :
    python main.py
    
  3. Ouvrez votre navigateur et naviguez vers :
    http://localhost:7860
    

Guide de démarrage rapide

  1. Sélectionnez un modèle dans le menu déroulant.
  2. Saisissez l'invite dans la zone de texte.
  3. Ajustez la température et le nombre maximum de jetons selon vos besoins.
  4. Cliquez sur "Générer" pour obtenir la réponse.
  5. Utilisez l'option Gestion des modèles pour introduire de nouveaux modèles.

configurer

Les paramètres par défaut peuvent être définis dans lemain.pyModifié en :

DEFAULT_OLLAMA_URL = "http://localhost:11434"
DEFAULT_MODEL_NAME = "llama3"

problèmes courants

  • erreur de connexionOllama : S'assurer qu'Ollama est lancé (ollama serve), vérifiez que l'URL du serveur est correcte et que le port 11434 est accessible.
  • Modèle non trouvéLe modèle : Tirez d'abord sur le modèle :ollama pull model_namePour plus d'informations, consultez les modèles disponibles :ollama list.
  • conflit portuaire: enmain.pyModifier le port dans le
    app.launch(server_port=7860)  # 更改为其他端口
© déclaration de droits d'auteur

Articles connexes

Pas de commentaires

Vous devez être connecté pour participer aux commentaires !
S'inscrire maintenant
aucun
Pas de commentaires...