Aprendizagem pessoal com IA
e orientação prática

Mecanismo Aphrodite: um mecanismo de inferência LLM eficiente que oferece suporte a vários formatos de quantificação e inferência distribuída.

Introdução geral

O Aphrodite Engine é o mecanismo de back-end oficial do PygmalionAI, projetado para fornecer um ponto de extremidade de inferência para sites do PygmalionAI e oferecer suporte à rápida implementação de modelos compatíveis com o Hugging Face. O mecanismo aproveita a tecnologia Paged Attention do vLLM para permitir o gerenciamento eficiente de K/V e o processamento sequencial em lote, o que melhora significativamente a velocidade de inferência e a utilização da memória. O aphrodite Engine oferece suporte a uma ampla variedade de formatos de quantização e inferência distribuída, e é adequado para uma ampla variedade de dispositivos modernos de GPU e TPU.

 

Lista de funções

  • Processamento contínuo em loteTratamento eficiente de várias solicitações e aumento da velocidade de inferência.
  • Atenção PagedOtimização do gerenciamento de K/V para melhorar a utilização da memória.
  • Kernel otimizado para CUDAMelhoria do desempenho da inferência.
  • Suporte quantitativoSuporte a vários formatos de quantificação, como AQLM, AWQ, Bitsandbytes, etc.
  • inferência distribuídaSuporte ao cache KV de 8 bits para requisitos de alto comprimento de contexto e alta taxa de transferência.
  • Suporte a vários dispositivosCompatível com GPUs NVIDIA, AMD, Intel e TPUs do Google.
  • Implementação do DockerFornecimento de imagens do Docker para simplificar o processo de implantação.
  • Compatível com APISuporte a APIs compatíveis com OpenAI para facilitar a integração com os sistemas existentes.

 

Usando a Ajuda

Processo de instalação

  1. Instalação de dependências::
    • Certifique-se de que as versões 3.8 a 3.12 do Python estejam instaladas em seu sistema.
    • Para usuários do Linux, o seguinte comando é recomendado para instalar as dependências:
     sudo apt update && sudo apt install python3 python3-pip git wget curl bzip2 tar
    
    • Para usuários do Windows, recomenda-se a instalação do WSL2:
     wsl --install
    sudo apt update && sudo apt install python3 python3-pip git wget curl bzip2 tar
    
  2. Instalação do motor Aphrodite::
    • Use o pip para instalar:
     pip install -U aphrodite-engine
    
  3. modelo de priming::
    • Execute o seguinte comando para iniciar o modelo: bash
      aphrodite run meta-llama/Meta-Llama-3.1-8B-Instruct
    • Isso criará um servidor de API compatível com o OpenAI com uma porta padrão de 2242.

Implementação com o Docker

  1. Extração de uma imagem do Docker::
   docker pull alpindale/aphrodite-openai:latest
  1. Executando um contêiner do Docker::
   docker run --runtime nvidia --gpus all \
-v ~/.cache/huggingface:/root/.cache/huggingface \
-p 2242:2242 \
--ipc=host \
alpindale/aphrodite-openai:latest \
--model NousResearch/Meta-Llama-3.1-8B-Instruct \
--tensor-parallel-size 8 \
--api-keys "sk-empty"

Funções principais

  1. Processamento contínuo em lote::
    • O Aphrodite Engine melhora significativamente a velocidade de inferência por meio da tecnologia de processamento contínuo em lote, que permite que várias solicitações sejam processadas ao mesmo tempo. Os usuários simplesmente especificam os parâmetros de processamento em lote na inicialização.
  2. Atenção Paged::
    • Essa tecnologia otimiza o gerenciamento de K/V e melhora a utilização da memória. Não é necessária nenhuma configuração adicional por parte do usuário e a otimização é aplicada automaticamente pelo sistema.
  3. Suporte quantitativo::
    • Há suporte para vários formatos de quantificação, como AQLM, AWQ, Bitsandbytes, etc. O usuário pode especificar o formato de quantificação desejado ao iniciar o modelo:
     aphrodite run --quant-format AQLM meta-llama/Meta-Llama-3.1-8B-Instruct
    
  4. inferência distribuída::
    • Oferece suporte ao cache KV de 8 bits para requisitos de alto comprimento de contexto e alta taxa de transferência. Os usuários podem iniciar o raciocínio distribuído com o seguinte comando:
     aphrodite run --tensor-parallel-size 8 meta-llama/Meta-Llama-3.1-8B-Instruct
    
  5. Integração de API::
    • O Aphrodite Engine fornece APIs compatíveis com OpenAI para facilitar a integração com os sistemas existentes. Os usuários podem iniciar o servidor de API com o seguinte comando: bash
      aphrodite run --api-keys "your-api-key" meta-llama/Meta-Llama-3.1-8B-Instruct

Aprendizagem fácil com IA

O guia do leigo para começar a usar a IA

Ajuda você a aprender a utilizar as ferramentas de IA com baixo custo e a partir de uma base zero.A IA, assim como o software de escritório, é uma habilidade essencial para todos. Dominar a IA lhe dará uma vantagem em sua busca de emprego e metade do esforço em seu trabalho e estudos futuros.

Ver detalhes>
Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " Mecanismo Aphrodite: um mecanismo de inferência LLM eficiente que oferece suporte a vários formatos de quantificação e inferência distribuída.

Chefe do Círculo de Compartilhamento de IA

O Chief AI Sharing Circle se concentra no aprendizado de IA, fornecendo conteúdo abrangente de aprendizado de IA, ferramentas de IA e orientação prática. Nosso objetivo é ajudar os usuários a dominar a tecnologia de IA e explorar juntos o potencial ilimitado da IA por meio de conteúdo de alta qualidade e compartilhamento de experiências práticas. Seja você um iniciante em IA ou um especialista sênior, este é o lugar ideal para adquirir conhecimento, aprimorar suas habilidades e realizar inovações.

Entre em contato conosco
pt_BRPortuguês do Brasil