Despliegue privado de DeepSeek + Dify: creación de un sistema local de asistente de inteligencia artificial seguro y controlable

esbozado

DeepSeek es un innovador modelo de big language de código abierto que aporta una experiencia revolucionaria a las interacciones de diálogo de IA con su avanzada arquitectura algorítmica y sus capacidades de encadenamiento reflexivo. Con el despliegue privado, tiene pleno control sobre la seguridad de los datos y la seguridad de uso. También puede ajustar con flexibilidad el esquema de despliegue e implantar un cómodo sistema personalizado.

Dify Como la misma plataforma de desarrollo de aplicaciones de IA de código abierto, ofrece una solución completa de despliegue privado. Al integrar a la perfección los servicios DeepSeek desplegados localmente en la plataforma Dify, las organizaciones pueden crear potentes aplicaciones de IA dentro de un entorno de servidor local al tiempo que garantizan la privacidad de los datos.

A continuación se enumeran las ventajas de la opción de despliegue privado:

  • rendimiento superior : Proporcionar una experiencia de interacción de diálogo comparable a los modelos de negocio
  • aislamiento ambiental Funcionamiento totalmente offline, lo que elimina el riesgo de fuga de datos.
  • Controlabilidad de los datos Control total de los activos de datos para cumplir los requisitos de conformidad.

 

preposicionamiento

Entorno de hardware:

  • CPU >= 2 núcleos
  • Memoria de vídeo/RAM ≥ 16 GiB (recomendado)

Entorno de software:

 

Inicio del despliegue

1. Instalación de Ollama

Ollama es un cliente de gestión de grandes modelos multiplataforma (MacOS, Windows, Linux) diseñado para desplegar sin problemas grandes modelos lingüísticos (LLM) como DeepSeek, Llama, Mistral, etc. Ollama permite desplegar grandes modelos con un solo clic, y todos los datos de uso se almacenan localmente en la máquina, lo que proporciona una total privacidad de los datos. y seguridad.

Visite el sitio web de Ollama y siga las instrucciones para descargar e instalar el cliente Ollama. Tras la instalación, ejecute ollama -v mostrará el número de versión.

➜~ollama-v
ollamaversionis0.5.5

Seleccione el modelo de tamaño de DeepSeek adecuado para la implantación en función de la configuración real del entorno. Se recomienda el modelo de tamaño 7B para la instalación inicial.

私有化部署 DeepSeek + Dify:构建安全可控的本地 AI 助手系统

Ejecutar comando ollama run deepseek-r1:7b montaje DeepSeek R1 Modelos.

私有化部署 DeepSeek + Dify:构建安全可控的本地 AI 助手系统

2. Instale Dify Community Edition

Visite la dirección del proyecto GitHub de Dify y ejecute los siguientes comandos para completar el repositorio de código y el proceso de instalación.

gitclonehttps://github.com/langgenius/dify.git
cddify/docker
cp.env.example.env
dockercomposeup-d# 如果版本是 Docker Compose V1,使用以下命令:docker-compose up -d

Después de ejecutar el comando, debería ver el estado y la asignación de puertos de todos los contenedores. Para obtener instrucciones detalladas, consulte Despliegue de Docker Compose.

Dify Community Edition utiliza el puerto 80 por defecto. http://your_server_ip Accede a tu plataforma privatizada de Dify.

3. Conexión de DeepSeek a Dify

Haga clic en la esquina superior derecha de la plataforma Dify Avatar → Configuración → Proveedor de modelos. Seleccione Ollama y pulse Añadir modelo.

私有化部署 DeepSeek + Dify:构建安全可控的本地 AI 助手系统

DeepSeek dentro del proveedor de modelos corresponde al servicio API en línea; los modelos DeepSeek desplegados localmente corresponden al cliente Ollama. Asegúrese de que el cliente Ollama ha desplegado correctamente el modelo DeepSeek, tal y como se detalla en las instrucciones de despliegue anteriores.

Seleccione el tipo de modelo LLM.

  • Nombre del modelo, introduzca el nombre del modelo desplegado. El modelo desplegado arriba es deepseek-r1 7b, por lo tanto rellene el campo deepseek-r1:7b
  • URL base, la dirección donde se ejecuta el cliente Ollama, normalmente http://your_server_ip:11434. En caso de problemas de conexión, lea enproblemas comunes.
  • Las demás opciones se mantienen en sus valores por defecto. En función del Descripción del modelo DeepSeekLa longitud máxima generada es de 32.768 tokens.
私有化部署 DeepSeek + Dify:构建安全可控的本地 AI 助手系统

 

Creación de aplicaciones de IA

DeepSeek AI Chatbot (aplicación sencilla)

  • Toca "Crear una aplicación en blanco" en el lado izquierdo de la página principal de la plataforma Dify, selecciona el tipo de aplicación "Asistente de Chat" y nómbrala simplemente.
私有化部署 DeepSeek + Dify:构建安全可控的本地 AI 助手系统
  • En la esquina superior derecha, en Tipo de aplicación, seleccione el framework Ollama dentro de la sección deepseek-r1:7b Modelos.
私有化部署 DeepSeek + Dify:构建安全可控的本地 AI 助手系统
  • Compruebe que la aplicación AI funciona introduciendo contenido en el cuadro de diálogo de vista previa. La generación de una respuesta significa que la construcción de la aplicación AI se ha completado.
私有化部署 DeepSeek + Dify:构建安全可控的本地 AI 助手系统
  • Pulsa el botón Publicar en la parte superior derecha de la aplicación para obtener un enlace a la aplicación de IA y compartirla con otros o incrustarla en otro sitio web.

DeepSeek AI Chatflow / Workflow (aplicaciones avanzadas)

Chatflow / Flujo de trabajo Apps puede ayudarle a crear aplicaciones de IA con funcionalidades más complejas, como la capacidad de tener reconocimiento de documentos, reconocimiento de imágenes, reconocimiento de voz, etc. Para obtener instrucciones detalladas, consulteDocumentación del flujo de trabajo.

  • Pulse "Crear una aplicación en blanco" en el lado izquierdo de la página principal de la plataforma Dify, seleccione una aplicación de tipo "Chatflow" o "Workflow" y nómbrela simplemente.
私有化部署 DeepSeek + Dify:构建安全可控的本地 AI 助手系统
  • Para añadir un nodo LLM, seleccione el marco Ollama en la sección deepseek-r1:7b y añada la palabra de aviso del sistema dentro del {{#sys.query#}} para conectar el nodo de inicio.
私有化部署 DeepSeek + Dify:构建安全可控的本地 AI 助手系统
  • Añada el nodo final para completar la configuración. Puede introducir contenido en el cuadro de vista previa para realizar pruebas. La generación de una respuesta significa que la construcción de la aplicación AI está completa.
私有化部署 DeepSeek + Dify:构建安全可控的本地 AI 助手系统

 

problemas comunes

1. Errores de conexión durante el despliegue de Docker

Los siguientes errores pueden ser encontrados al desplegar Dify y Ollama con Docker:

httpconnectionpool(host=127.0.0.1,port=11434): max retries exceeded with url:/cpi/chat
(CausedbyNewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>:
fail to establish a new connection:[Errno 111] Connection refused'))
httpconnectionpool(host=localhost,port=11434): max retries exceeded with url:/cpi/chat
(CausedbyNewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>:
fail to establish a new connection:[Errno 111] Connection refused'))

Causa del error Este error se produce porque el servicio Ollama no está accesible en el contenedor Docker. localhost suele apuntar al propio contenedor, no al host o a otro contenedor. Para resolver este problema, debe exponer el servicio Ollama a la red.

Método de configuración del entorno macOS:

Si Ollama se ejecuta como una aplicación de macOS, es necesario establecer las variables de entorno mediante launchctl:

  1. Esto se consigue llamando a la función launchctl setenv Configuración de variables de entorno:
launchctlsetenvOLLAMA_HOST"0.0.0.0"
  1. Reinicie la aplicación Ollama.
  2. Si los pasos anteriores no funcionan, puede utilizar el siguiente método:

El problema es que dentro de docker, debe conectarse a la host.docker.internalpara acceder al host del docker, así que configure la directiva localhost Sustituir por host.docker.internal El servicio está listo para entrar en vigor:

http://host.docker.internal:11434

Método de configuración del entorno Linux:

Si Ollama se ejecuta como un servicio systemd, debe utilizar el comando systemctl Configuración de variables de entorno:

  1. Esto se consigue llamando a la función systemctl edit ollama.service Edita el servicio systemd. Esto abrirá un editor.
  2. Para cada variable de entorno, el [Service] Añada una línea debajo de la sección Environment::
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
  1. Guardar y salir.
  2. carga pesada (en un camión) systemd y reiniciar Ollama:
systemctldaemon-reload
systemctlrestartollama

Método de configuración del entorno Windows:

En Windows, Ollama hereda las variables de entorno del usuario y del sistema.

  1. En primer lugar, haga clic en Ollama en la barra de tareas para salir del programa.
  2. Editar las variables de entorno del sistema desde el panel de control
  3. Edite o cree nuevas variables para su cuenta de usuario, tales como OLLAMA_HOSTyOLLAMA_MODELS etc.
  4. Haga clic en OK / Aplicar para guardar
  5. Ejecutar en una nueva ventana de terminal ollama

2. ¿Cómo puedo cambiar la dirección y el número de puerto del servicio Ollama?

Ollama Encuadernación por defecto 127.0.0.1 puerto 11434, al que puede acceder a través de la dirección OLLAMA_HOST Las variables de entorno modifican la dirección de enlace.

© declaración de copyright

Artículos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...