OpenWebUI Despliegue de la interfaz de diálogo visual Ollama

I. Despliegue con Node.js

1. Instalar Node.js

Descargar e instalar Node.js Herramientas: https://www.nodejs.com.cn/download.html

OpenWebUI 部署 Ollama 可视化对话界面

Establezca la fuente de espejo, por ejemplo, utilice la siguiente fuente de espejo.

npm config set registry http://mirrors.cloud.tencent.com/npm/

2. Clonar el repositorio ollama-webui

Clona el repositorio ollama-webui en el terminal y cambia el directorio del código ollama-webui.

git clone https://github.com/ollama-webui/ollama-webui-lite.git
cd ollama-webui-lite

3. Instalación de dependencias

Instale la dependencia en el terminal.

npm ci
OpenWebUI 部署 Ollama 可视化对话界面

4. Funcionamiento

npm run dev
OpenWebUI 部署 Ollama 可视化对话界面

golpe (en el teclado) http://localhost:3000/ Abre la página.

OpenWebUI 部署 Ollama 可视化对话界面

 

Despliegue con Docker

Esta subsección despliega open-webui usando Docker en Windows.

Tutorial de referencia Instalación y configuración de Ollama en WindowsPara instalar Ollama de antemano, utilice el siguiente comando en el terminal para extraer el archivo ghcr.io/open-webui/open-webui:main Míralo y ejecútalo.

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

En el terminal de comandos aparece el siguiente resultado, que indica que la ejecución se ha realizado correctamente.

OpenWebUI 部署 Ollama 可视化对话界面

Después de que el comando se ejecute correctamente, aparecerá el siguiente comando en el contenedor de Docker open-webuiLa siguiente figura muestra lo siguiente.

OpenWebUI 部署 Ollama 可视化对话界面

A continuación, haga clic en Acceso a puertos, como se muestra a continuación. También puede escribir directamente en el navegador http://localhost:3000/ Acceso.

OpenWebUI 部署 Ollama 可视化对话界面

Cuando lo abras, aparecerá que has iniciado sesión en Open WebUI, sólo tienes que registrarte para obtener una cuenta.

OpenWebUI 部署 Ollama 可视化对话界面OpenWebUI 部署 Ollama 可视化对话界面

Una vez seleccionado el modelo, puede iniciar el diálogo.

OpenWebUI 部署 Ollama 可视化对话界面

A continuación se enumeran las formas más habituales de utilizar el qwen2:1.5b Un ejemplo de diálogo.

OpenWebUI 部署 Ollama 可视化对话界面

 

Si quieres explorar más funciones puedes consultar: https://github.com/open-webui/open-webui

Dirección del almacén de referencia: https://github.com/ollama-webui/ollama-webui-lite

© declaración de copyright

Artículos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...