Modelo de despliegue local Ollama Acceso Dify
Tutoriales prácticos sobre IAPublicado hace 8 meses Círculo de intercambio de inteligencia artificial 31.2K 00
Dify Apoyo al acceso Ollama Despliegue de capacidades de inferencia e incrustación de modelos lingüísticos a gran escala.
Acceso rápido
- Descargar Ollama
entrevistas Instalación y configuración de OllamaPara más información, consulte el Tutorial de despliegue local de Ollama. - Corre Ollama y chatea con Llama
ollama run llama3.1Tras iniciarse correctamente, ollama inicia un servicio API en el puerto local 11434, al que se puede acceder mediante el comando
http://localhost:11434Acceso.
Para más información sobre otros modelos, visite https://ollama.ai/library. - Acceso a Ollama en Dify
existe设置 > 模型供应商 > OllamaRellena los espacios en blanco:

- Nombre del modelo:
llama3.1 - URL base:
http://<your-ollama-endpoint-domain>:11434
Aquí se solicita la dirección del servicio Ollama al que se puede acceder.
Si Dify es un despliegue docker, se recomienda rellenar la dirección IP de la LAN, por ejemplo:http://192.168.1.100:11434o la dirección IP del host docker, por ejemplo:http://172.17.0.1:11434.Nota: El comando Buscar dirección IP de LAN:
- En Linux/macOS, utilice el comando
ip addr showtal vezifconfig. - En Windows, utilice la función
ipconfigpara encontrar direcciones similares. - Normalmente, esta dirección se muestra en la interfaz eth0 o wlan0, dependiendo de si está utilizando una red cableada o inalámbrica.
Si se despliega para código fuente local, rellene el campo
http://localhost:11434. - En Linux/macOS, utilice el comando
- Tipo de modelo:
对话 - Longitud del contexto del modelo:
4096
La longitud máxima del contexto del modelo, si no está claro puede rellenar el valor por defecto 4096. - mayor ficha Cap:
4096
El número máximo de tokens que debe devolver el modelo como contenido, que puede ser coherente con la longitud del contexto del modelo si éste no especifica otra cosa. - Si se admite o no Visión:
是
Si el modelo permite la comprensión de imágenes (multimodal), marque esta casilla, por ejemplollava.
Haga clic en "Guardar" para comprobar que el modelo es correcto y puede utilizarse en su aplicación.
Al modelo de incrustación se accede de forma similar a LLM, cambiando el tipo de modelo a Incrustación de texto. - Nombre del modelo:
- Utilización del modelo Ollama

Vaya a la página App Prompt Orchestration de la aplicación que desea configurar y seleccione el proveedor Ollama en el campollama3.1configurar los parámetros del modelo y utilizarlo.
PREGUNTAS FRECUENTES
⚠️ Si está utilizando Docker para desplegar Dify y Ollama, puede encontrarse con el siguiente error.
httpconnectionpool(host=127.0.0.1, port=11434): max retries exceeded with url:/cpi/chat (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))
httpconnectionpool(host=localhost, port=11434): max retries exceeded with url:/cpi/chat (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))
Este error se debe a que el contenedor Docker no puede acceder al servicio Ollama. El localhost suele referirse al propio contenedor, no al host ni a otros contenedores. Para resolver este problema, es necesario exponer el servicio Ollama a la red.
Configuración de variables de entorno en un Mac
en caso de que Ollama actuar como macOS se debe utilizar el siguiente comando para establecer las variables de entornolaunchctl ::
- Esto se consigue llamando a la función
launchctl setenvConfiguración de variables de entorno:launchctl setenv OLLAMA_HOST "0.0.0.0" - Reinicie la aplicación Ollama.
- Si los pasos anteriores no funcionan, puede utilizar el siguiente método:
El problema es que dentro de docker, debe conectarse a lahost.docker.internalpara acceder al host del docker, así que configure la directivalocalhostSustituir porhost.docker.internalEl servicio está listo para entrar en vigor:http://host.docker.internal:11434
Establecer variables de entorno en Linux
Si Ollama se ejecuta como un servicio systemd, debe utilizar el comando systemctl Configuración de variables de entorno:
- Esto se consigue llamando a la función
systemctl edit ollama.serviceEdita el servicio systemd. Esto abrirá un editor. - Para cada variable de entorno, el
[Service]Añada una línea debajo de la secciónEnvironment::[Service] Environment="OLLAMA_HOST=0.0.0.0" - Guardar y salir.
- carga pesada (en un camión)
systemdy reiniciar Ollama:systemctl daemon-reload systemctl restart ollama
Configuración de variables de entorno en Windows
En Windows, Ollama hereda las variables de entorno del usuario y del sistema.
- En primer lugar, haga clic en Ollama en la barra de tareas para salir del programa.
- Editar las variables de entorno del sistema desde el panel de control
- Edite o cree nuevas variables para su cuenta de usuario, tales como
OLLAMA_HOSTyOLLAMA_MODELSetc. - Haga clic en Aceptar/Aplicar para guardar la solicitud
- Ejecutar en una nueva ventana de terminal
ollama
¿Cómo expongo Ollama en mi red?
Ollama se enlaza al puerto 11434 en 127.0.0.1 por defecto. a través de la etiqueta OLLAMA_HOST Las variables de entorno modifican la dirección de enlace.
© declaración de copyright
Derechos de autor del artículo Círculo de intercambio de inteligencia artificial Todos, por favor no reproducir sin permiso.
Artículos relacionados
Sin comentarios...






