OpenWebUI Déploiement de l'interface de dialogue visuel Ollama

I. Déploiement avec Node.js

1. installer Node.js

Télécharger et installer Node.js Outils : https://www.nodejs.com.cn/download.html

OpenWebUI 部署 Ollama 可视化对话界面

Définissez la source du miroir, par exemple, utilisez la source du miroir suivante.

npm config set registry http://mirrors.cloud.tencent.com/npm/

2. cloner le dépôt ollama-webui

Clonez le dépôt ollama-webui dans le terminal et changez le répertoire du code ollama-webui.

git clone https://github.com/ollama-webui/ollama-webui-lite.git
cd ollama-webui-lite

3. installation des dépendances

Installez la dépendance dans le terminal.

npm ci
OpenWebUI 部署 Ollama 可视化对话界面

4. fonctionnement

npm run dev
OpenWebUI 部署 Ollama 可视化对话界面

frappe (sur le clavier) http://localhost:3000/ , ouvrir la page.

OpenWebUI 部署 Ollama 可视化对话界面

 

Déploiement avec Docker

Cette sous-section déploie open-webui en utilisant Docker sur Windows.

Tutoriel de référence Installation et configuration d'Ollama sur WindowsPour installer Ollama à l'avance, utilisez la commande suivante dans le terminal pour extraire le fichier ghcr.io/open-webui/open-webui:main Mettez-le en miroir et exécutez-le.

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Le résultat suivant apparaît dans le terminal de commande, indiquant que l'exécution a réussi.

OpenWebUI 部署 Ollama 可视化对话界面

Une fois que la commande s'est exécutée avec succès, la commande suivante apparaît sous le conteneur de Docker open-webuiLa figure ci-dessous présente les éléments suivants.

OpenWebUI 部署 Ollama 可视化对话界面

Cliquez ensuite sur Port Access comme indiqué ci-dessous. Vous pouvez également taper directement dans le navigateur http://localhost:3000/ Accès.

OpenWebUI 部署 Ollama 可视化对话界面

Lorsque vous l'ouvrirez, il apparaîtra que vous êtes connecté à Open WebUI, il vous suffit de créer un compte.

OpenWebUI 部署 Ollama 可视化对话界面OpenWebUI 部署 Ollama 可视化对话界面

Après avoir sélectionné le modèle, vous pouvez entamer le dialogue.

OpenWebUI 部署 Ollama 可视化对话界面

Vous trouverez ci-dessous une liste des façons les plus courantes d'utiliser la fonction qwen2:1.5b Un exemple de dialogue.

OpenWebUI 部署 Ollama 可视化对话界面

 

Si vous souhaitez découvrir d'autres fonctionnalités, vous pouvez vous référer à : https://github.com/open-webui/open-webui

Adresse de l'entrepôt de référence : https://github.com/ollama-webui/ollama-webui-lite

© déclaration de droits d'auteur

Articles connexes

Pas de commentaires

Vous devez être connecté pour participer aux commentaires !
S'inscrire maintenant
aucun
Pas de commentaires...