XDOllama: Interfaz del modelo AI para llamadas rápidas a Ollama\Dify\Xinference en MacOS.

Introducción general

XDOllama es una aplicación de escritorio diseñada para que los usuarios de MacOS puedan invocar rápidamente Ollama, Dify y Xinferencia La aplicación permite a los usuarios llamar fácilmente a modelos de IA locales o en línea a través de una interfaz y un proceso de funcionamiento simplificados. La aplicación permite a los usuarios llamar fácilmente a modelos de IA locales o en línea a través de una interfaz y un proceso de funcionamiento simplificados, lo que mejora la eficiencia y la experiencia de trabajo.

XDOllama:适用于MacOS上快速调用Ollama\Dify\Xinference的AI模型界面。

 

XDOllama:适用于MacOS上快速调用Ollama\Dify\Xinference的AI模型界面。

 

Lista de funciones

  • invocar el local Ollama modelización
  • Llamar al modelo Ollama en línea
  • Llamada al modelo local Xinference
  • Llamada al modelo Xinference en línea
  • invocar el local Dify aparato
  • Llamar a la aplicación en línea de Dify
  • Compatibilidad con varios marcos de IA
  • Diseño de interfaz fácil de usar
  • Eficaz velocidad de llamada de modelos

 

Utilizar la ayuda

Proceso de instalación

  1. Descarga el archivo DMG.
  2. Haga doble clic para abrir el archivo DMG descargado.
  3. Arrastra XDOllama.app a la carpeta Aplicaciones.
  4. Una vez finalizada la instalación, abra la aplicación y estará lista para usar.

Normas de uso

  1. Abra la aplicación XDOllama.
  2. Seleccione el modelo de IA al que desea llamar (Ollama, Dify o Xinference).
  3. Seleccione el método de llamada (local o en línea).
  4. Introduzca los parámetros y ajustes pertinentes que se le soliciten.
  5. Pulse el botón "Llamar" y espere a que el modelo se cargue y se ejecute.
  6. Visualizar y utilizar los resultados del modelo.

Flujo detallado de funcionamiento de las funciones

Llamada al modelo local de Ollama

  1. Seleccione "Ollama" en la pantalla principal.
  2. Seleccione el método de llamada "Local".
  3. Introduzca la ruta y los parámetros del modelo.
  4. Pulse el botón "Llamar" y espere a que se cargue el modelo.
  5. Ver el resultado del modelo.

Llamar al modelo Ollama en línea

  1. Seleccione "Ollama" en la pantalla principal.
  2. Seleccione el método de llamada "En línea".
  3. Introduzca la URL y los parámetros del modelo en línea.
  4. Pulse el botón "Llamar" y espere a que se cargue el modelo.
  5. Ver el resultado del modelo.

Llamada al modelo local Xinference

  1. Seleccione "Xinferencia" en la pantalla principal.
  2. Seleccione el método de llamada "Local".
  3. Introduzca la ruta y los parámetros del modelo.
  4. Pulse el botón "Llamar" y espere a que se cargue el modelo.
  5. Ver el resultado del modelo.

Llamada al modelo Xinference en línea

  1. Seleccione "Xinferencia" en la pantalla principal.
  2. Seleccione el método de llamada "En línea".
  3. Introduzca la URL y los parámetros del modelo en línea.
  4. Pulse el botón "Llamar" y espere a que se cargue el modelo.
  5. Ver el resultado del modelo.

Llamada a la aplicación local de Dify

  1. Seleccione "Dify" en la pantalla principal.
  2. Seleccione el método de llamada "Local".
  3. Introduzca la ruta de la aplicación y los parámetros.
  4. Pulse el botón "Llamar" y espere a que se cargue la aplicación.
  5. Ver la salida de la aplicación.

Llamar a la aplicación en línea de Dify

  1. Seleccione "Dify" en la pantalla principal.
  2. Seleccione el método de llamada "En línea".
  3. Introduzca la URL y los parámetros de la solicitud en línea.
  4. Pulse el botón "Llamar" y espere a que se cargue la aplicación.
  5. Ver la salida de la aplicación.
© declaración de copyright

Artículos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...