Aprendizagem pessoal com IA
e orientação prática

HiOllama: uma interface de bate-papo limpa para interagir com modelos nativos do Ollama

Introdução geral

O HiOllama é uma interface amigável criada em Python e Gradio, projetada para interagir com os modelos Ollama. Ela oferece uma interface da Web simples e intuitiva que suporta geração de texto em tempo real e recursos de gerenciamento de modelos. Os usuários podem ajustar parâmetros como temperatura e número máximo de tokens, além de oferecer suporte ao gerenciamento de vários modelos do Ollama e à configuração personalizada do URL do servidor.

RECOMENDAÇÃO: Ollama vs. Abrir a WebUI A integração é mais amigável, mas os custos de implementação são um pouco mais altos.


HiOllama: uma interface de bate-papo limpa para interagir com modelos locais do Ollama-1

 

Lista de funções

  • Interface da Web simples e intuitiva
  • Geração de texto em tempo real
  • Parâmetros ajustáveis (temperatura, número máximo de tokens)
  • Funções de gerenciamento de modelos
  • Suporte a vários modelos Ollama
  • Configuração personalizada do URL do servidor

 

Usando a Ajuda

Etapas de instalação

  1. Armazém de Clonagem:
    git clone https://github.com/smaranjitghose/HiOllama.git
    cd HiOllama
    
  2. Criar e ativar um ambiente virtual:
    • Windows.
      python -m venv env
      . \env\Scripts\activate
      
    • Linux/Mac.
      python3 -m venv env
      fonte env/bin/activate
      
  3. Instale os pacotes necessários:
    pip install -r requirements.txt
    
  4. Instale o Ollama (se ainda não estiver instalado):
    • Linux/Mac.
      curl -fsSL https://ollama.ai/install.sh | sh
      
    • Windows.
      Instale o WSL2 primeiro e, em seguida, execute o comando acima.

Etapas de uso

  1. Inicie o serviço Ollama:
    ollama servir
    
  2. Execute o HiOllama:
    python main.py
    
  3. Abra seu navegador e navegue até:
    http://localhost:7860
    

Guia de início rápido

  1. Selecione um modelo no menu suspenso.
  2. Digite o prompt na área de texto.
  3. Ajuste a temperatura e o número máximo de tokens conforme necessário.
  4. Clique em "Generate" (Gerar) para obter a resposta.
  5. Use a opção Model Management para obter novos modelos.

configurar

As configurações padrão podem ser definidas nomain.pyModificado em:

DEFAULT_OLLAMA_URL = "http://localhost:11434"
DEFAULT_MODEL_NAME = "llama3"

problemas comuns

  • erro de conexãoVerifique se o Ollama está em execução (ollama serve), verifique se o URL do servidor está correto e se a porta 11434 está acessível.
  • Modelo não encontradoPuxe o modelo primeiro:ollama pull model_nameVerifique os modelos disponíveis:lista ollama.
  • conflito portuário: emmain.pyAltere a porta na seção
    app.launch(server_port=7860) # Alterar para outra porta
Aprendizagem fácil com IA

O guia do leigo para começar a usar a IA

Ajuda você a aprender a utilizar as ferramentas de IA com baixo custo e a partir de uma base zero.A IA, assim como o software de escritório, é uma habilidade essencial para todos. Dominar a IA lhe dará uma vantagem em sua busca de emprego e metade do esforço em seu trabalho e estudos futuros.

Ver detalhes>
Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " HiOllama: uma interface de bate-papo limpa para interagir com modelos nativos do Ollama

Chefe do Círculo de Compartilhamento de IA

O Chief AI Sharing Circle se concentra no aprendizado de IA, fornecendo conteúdo abrangente de aprendizado de IA, ferramentas de IA e orientação prática. Nosso objetivo é ajudar os usuários a dominar a tecnologia de IA e explorar juntos o potencial ilimitado da IA por meio de conteúdo de alta qualidade e compartilhamento de experiências práticas. Seja você um iniciante em IA ou um especialista sênior, este é o lugar ideal para adquirir conhecimento, aprimorar suas habilidades e realizar inovações.

Entre em contato conosco
pt_BRPortuguês do Brasil