ChatOllama: aplicación local de chat en tiempo real basada en Nuxt 3 y Ollama

Introducción general

ChatOllama es un proyecto de aplicación de chat en línea de código abierto basado en modelos lingüísticos a gran escala (LLM), que admite numerosos modelos lingüísticos y la gestión de la base de conocimientos. Los usuarios pueden utilizar la plataforma para la gestión de modelos (visualización de listas , descarga , eliminación ) , chatear con modelos y otras funciones . El proyecto utiliza el marco Nuxt 3 y proporciona una guía de configuración detallada y directrices del servidor de desarrollo para los desarrolladores interesados en el desarrollo de chatbot para navegar y contribuir.

 

ChatOllama:基于Nuxt 3和Ollama的本地实时聊天应用UI

 

ChatOllama:基于Nuxt 3和Ollama的本地实时聊天应用UI

 

ChatOllama:基于Nuxt 3和Ollama的本地实时聊天应用UI

 

 

Lista de funciones

Gestión de modelos: visualización, descarga y eliminación de listas de modelos.
Capacidad para interactuar con modelos de chat
Apoyo a la modelización multilingüe y a la gestión de la base de conocimientos (base de conocimientos basada en LangChain).
Desarrollado en Nuxt 3 y escrito en Vue y TypeScript.

 

Utilizar la ayuda

Instale primero las dependencias: npm install, pnpm install, yarn install o bun install
Asegúrese de que tiene un servidor Ollama en ejecución, el entorno local se ejecuta por defecto en http://localhost:11434
Encontrado en http://localhost:3000上启动开发服务器: npm run dev

© declaración de copyright

Puestos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...