Modelo de despliegue local Ollama Acceso Dify
Tutoriales prácticos sobre IAPublicado hace 5 meses Círculo de intercambio de inteligencia artificial 2K 00
Dify Apoyo al acceso Ollama Despliegue de capacidades de inferencia e incrustación de modelos lingüísticos a gran escala.
Acceso rápido
- Descargar Ollama
entrevistas Instalación y configuración de OllamaPara más información, consulte el Tutorial de despliegue local de Ollama. - Corre Ollama y chatea con Llama
ollama run llama3.1
Tras iniciarse correctamente, ollama inicia un servicio API en el puerto local 11434, al que se puede acceder mediante el comando
http://localhost:11434
Acceso.
Para más información sobre otros modelos, visite https://ollama.ai/library. - Acceso a Ollama en Dify
existe设置 > 模型供应商 > Ollama
Rellena los espacios en blanco:- Nombre del modelo:
llama3.1
- URL base:
http://<your-ollama-endpoint-domain>:11434
Aquí se solicita la dirección del servicio Ollama al que se puede acceder.
Si Dify es un despliegue docker, se recomienda rellenar la dirección IP de la LAN, por ejemplo:http://192.168.1.100:11434
o la dirección IP del host docker, por ejemplo:http://172.17.0.1:11434
.Nota: El comando Buscar dirección IP de LAN:
- En Linux/macOS, utilice el comando
ip addr show
tal vezifconfig
. - En Windows, utilice la función
ipconfig
para encontrar direcciones similares. - Normalmente, esta dirección se muestra en la interfaz eth0 o wlan0, dependiendo de si está utilizando una red cableada o inalámbrica.
Si se despliega para código fuente local, rellene el campo
http://localhost:11434
. - En Linux/macOS, utilice el comando
- Tipo de modelo:
对话
- Longitud del contexto del modelo:
4096
La longitud máxima del contexto del modelo, si no está claro puede rellenar el valor por defecto 4096. - mayor ficha Cap:
4096
El número máximo de tokens que debe devolver el modelo como contenido, que puede ser coherente con la longitud del contexto del modelo si éste no especifica otra cosa. - Si se admite o no Visión:
是
Si el modelo permite la comprensión de imágenes (multimodal), marque esta casilla, por ejemplollava
.
Haga clic en "Guardar" para comprobar que el modelo es correcto y puede utilizarse en su aplicación.
Al modelo de incrustación se accede de forma similar a LLM, cambiando el tipo de modelo a Incrustación de texto. - Nombre del modelo:
- Utilización del modelo Ollama
Vaya a la página App Prompt Orchestration de la aplicación que desea configurar y seleccione el proveedor Ollama en el campollama3.1
configurar los parámetros del modelo y utilizarlo.
PREGUNTAS FRECUENTES
⚠️ Si está utilizando Docker para desplegar Dify y Ollama, puede encontrarse con el siguiente error.
httpconnectionpool(host=127.0.0.1, port=11434): max retries exceeded with url:/cpi/chat (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))
httpconnectionpool(host=localhost, port=11434): max retries exceeded with url:/cpi/chat (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))
Este error se debe a que el contenedor Docker no puede acceder al servicio Ollama. El localhost suele referirse al propio contenedor, no al host ni a otros contenedores. Para resolver este problema, es necesario exponer el servicio Ollama a la red.
Configuración de variables de entorno en un Mac
en caso de que Ollama
actuar como macOS
se debe utilizar el siguiente comando para establecer las variables de entornolaunchctl
::
- Esto se consigue llamando a la función
launchctl setenv
Configuración de variables de entorno:launchctl setenv OLLAMA_HOST "0.0.0.0"
- Reinicie la aplicación Ollama.
- Si los pasos anteriores no funcionan, puede utilizar el siguiente método:
El problema es que dentro de docker, debe conectarse a lahost.docker.internal
para acceder al host del docker, así que configure la directivalocalhost
Sustituir porhost.docker.internal
El servicio está listo para entrar en vigor:http://host.docker.internal:11434
Establecer variables de entorno en Linux
Si Ollama se ejecuta como un servicio systemd, debe utilizar el comando systemctl
Configuración de variables de entorno:
- Esto se consigue llamando a la función
systemctl edit ollama.service
Edita el servicio systemd. Esto abrirá un editor. - Para cada variable de entorno, el
[Service]
Añada una línea debajo de la secciónEnvironment
::[Service] Environment="OLLAMA_HOST=0.0.0.0"
- Guardar y salir.
- carga pesada (en un camión)
systemd
y reiniciar Ollama:systemctl daemon-reload systemctl restart ollama
Configuración de variables de entorno en Windows
En Windows, Ollama hereda las variables de entorno del usuario y del sistema.
- En primer lugar, haga clic en Ollama en la barra de tareas para salir del programa.
- Editar las variables de entorno del sistema desde el panel de control
- Edite o cree nuevas variables para su cuenta de usuario, tales como
OLLAMA_HOST
yOLLAMA_MODELS
etc. - Haga clic en Aceptar/Aplicar para guardar la solicitud
- Ejecutar en una nueva ventana de terminal
ollama
¿Cómo expongo Ollama en mi red?
Ollama se enlaza al puerto 11434 en 127.0.0.1 por defecto. a través de la etiqueta OLLAMA_HOST
Las variables de entorno modifican la dirección de enlace.
© declaración de copyright
文章版权归 Círculo de intercambio de inteligencia artificial 所有,未经允许请勿转载。
Artículos relacionados
Sin comentarios...