Aprendizagem pessoal com IA
e orientação prática
Espelho de desenho CyberKnife

BrowserAI: Executando modelos de IA localmente no navegador com WebGPUs

Introdução geral

O BrowserAI é uma ferramenta de código aberto que permite aos usuários executar modelos de IA nativos diretamente no navegador. Desenvolvido pela equipe Cloud-Code-AI, ele oferece suporte a modelos de linguagem como Llama, DeepSeek e Kokoro. Os usuários podem executar tarefas como geração de texto, reconhecimento de fala e conversão de texto em fala por meio do navegador, sem a necessidade de um servidor ou de uma configuração complexa. Ele usa a tecnologia WebGPU para acelerar a computação, e todos os dados são processados localmente para proteger a privacidade. O BrowserAI é simples e fácil de usar, portanto, os desenvolvedores podem usá-lo para criar aplicativos de IA, e os usuários comuns também podem experimentar os recursos de IA. O projeto é gratuito e aberto no GitHub, portanto, qualquer pessoa pode baixar o código e usá-lo ou aprimorá-lo.

BrowserAI: Executando modelos de IA localmente com navegadores WebGPU-1

Diálogo de texto do BrowserAI


BrowserAI: Executando modelos de IA localmente com navegadores WebGPU-1

Diálogo de voz do BrowserAI

 

BrowserAI: Executando modelos de IA localmente com navegadores WebGPU-1

Conversão de texto em fala do BrowserAI

 

Lista de funções

  • Execute modelos locais de IA em seu navegador sem suporte de servidor.
  • A geração de texto é suportada para que os usuários possam inserir texto e obter uma resposta em linguagem natural.
  • Oferece reconhecimento de fala para converter áudio em texto.
  • Suporta conversão de texto em fala, transformando texto em áudio reproduzível.
  • Acelerado com WebGPU, ele é executado com desempenho quase nativo.
  • A funcionalidade off-line é fornecida e nenhuma conexão com a Internet é necessária após o primeiro download.
  • Código-fonte aberto, suporte para que os desenvolvedores personalizem modelos e funcionalidades.

 

Usando a Ajuda

Processo de instalação

O BrowserAI não exige uma instalação tradicional, mas requer a preparação do ambiente e do código a ser executado. Aqui estão as etapas exatas:

  1. Verifique seu navegador
    • Use um navegador habilitado para WebGPU, como o Chrome 113+ ou o Edge 113+. Na barra de endereços de seu navegador, digite chrome://gpu Verifique se a WebGPU está ativada.
    • Certifique-se de que o hardware do seu computador seja compatível com ponto flutuante de 16 bits (alguns modelos exigem isso) e que uma CPU comum possa executá-lo, mas uma GPU é mais rápida.
  2. Código de download
    • Acesse https://github.com/Cloud-Code-AI/BrowserAI.
    • Clique no botão "Code" e selecione "Download ZIP" para fazer o download ou use o comando git clone https://github.com/Cloud-Code-AI/BrowserAI.git.
    • Descompacte o arquivo ou acesse a pasta.
  3. Instalação do Node.js e das dependências
    • Primeiro, instale o Node.js, faça o download e instale-o no site oficial do Node.js e, quando terminar, digite nó -v Confirme a versão.
    • Abra um terminal e acesse a pasta BrowserAI (por exemplo cd BrowserAI).
    • importação npm install Instale as dependências, o processo pode levar alguns minutos.
  4. Início de projetos
    • No terminal, digite npm run dev, inicie o servidor local.
    • Abra seu navegador e digite http://localhost:3000(consulte o prompt do terminal para saber o número da porta) e entre na interface do BrowserAI.

Como usar os principais recursos

O núcleo do BrowserAI é executar modelos de IA no navegador, o que é descrito em detalhes a seguir.

Função 1: Geração de texto

  • procedimento
    1. Após a inicialização, a interface exibe a caixa de seleção do modelo, que, por padrão, tem a opção llama-3.2-1b-instruct e outras opções.
    2. Clique em "Load Model" (Carregar modelo) e aguarde o carregamento do modelo (de alguns segundos a alguns minutos, dependendo do desempenho do computador).
    3. Digite o texto na caixa de entrada, como "What's the weather like today?" (Como está o tempo hoje?) e clique em "Generate" (Gerar).
    4. O sistema gera respostas como "It's a beautiful day to go out" (Está um lindo dia para sair). .
  • Dicas e truques
    • Modelos pequenos (por exemplo TinyLlama-1.1B) carrega rapidamente e é adequado para computadores de baixo custo.
    • Digite uma pergunta específica para obter uma resposta mais precisa, como "Escreva um artigo técnico de 50 palavras".
  • cenário do aplicativo
    • Escreva os primeiros rascunhos de artigos, gere diálogos ou teste modelos de habilidades linguísticas.

Função 2: Reconhecimento de fala

  • procedimento
    1. Selecione um modelo que ofereça suporte ao reconhecimento de fala, como sussurro-tiny-pt.
    2. Clique em "Load Model" (Carregar modelo) para carregar o modelo.
    3. Clique em "Start Recording" (Iniciar gravação) e fale no microfone, por exemplo, "Hello, BrowserAI" (Olá, BrowserAI).
    4. Clique em "Stop Recording" (Parar gravação), aguarde alguns segundos e a interface exibirá o texto transcrito, como "Hello, BrowserAI".
  • Dicas e truques
    • Verifique se o microfone está funcionando corretamente e se há pouco ruído de fundo para obter melhores resultados.
    • Parâmetros opcionais return_timestamps Veja o registro de data e hora de cada parágrafo.
  • cenário do aplicativo
    • Grave reuniões, transcreva anotações de voz ou desenvolva aplicativos de entrada de voz.

Função 3: conversão de texto em fala

  • procedimento
    1. opção kokoro-tts modelo, clique em "Load Model" (Carregar modelo).
    2. Digite o texto, como "Bem-vindo à experiência do BrowserAI".
    3. Selecione a voz (por exemplo af_bella) e a velocidade (padrão 1,0), clique em "Text to Speech" (Texto para fala).
    4. Gerar áudio e reproduzi-lo automaticamente ou fazer o download do arquivo.
  • Dicas e truques
    • As frases são mais naturais, e as velocidades mais lentas (por exemplo, 0,8) são mais claras.
    • Teste diferentes opções de voz para encontrar o tom mais adequado.
  • cenário do aplicativo
    • Crie prompts de voz, gere clipes de podcast ou duble vídeos.

Recurso 4: Personalização do desenvolvedor

  • procedimento
    1. Faça o download do arquivo de modelo que deseja usar (por exemplo, do Hugging Face) e coloque-o no diretório do projeto (consulte README.md).
    2. compilador src/index.tsadicione o caminho do modelo.
    3. estar em movimento npm run devCarregue o novo modelo.
  • Dicas e truques
    • Certifique-se de que o modelo seja compatível com o WebGPU e o WebAssembly.
    • Se você não conhece o código, levante um problema no GitHub.
  • cenário do aplicativo
    • Teste de novos modelos, desenvolvimento de aplicativos de IA personalizados.

O código de exemplo usa

Geração de texto

  • Apresentando o BrowserAI ao projeto:
    importar { BrowserAI } de '@browserai/browserai';
    const ai = new BrowserAI();
    await ai.loadModel('llama-3.2-1b-instruct'); const response = await ai.generateText('@browserai/browserai')
    const response = await ai.generateText('Hello, how's the weather today?') ;
    console.log(response);

conversão de voz em texto

  • Gravar e transcrever áudio:
    const ai = new BrowserAI();
    aguarde ai.loadModel('whisper-tiny-en');
    await ai.startRecording(); const audio = await ai.stopRecording(); await ai.stopRecording()
    const audio = await ai.stopRecording(); const text = await ai.transcribeAccess('whisper-tiny-en')
    const text = await ai.transcribeAudio(audio); console.log(text);
    console.log(text);
    

advertência

  • performancesModelos grandes (por exemplo Llama-3.2-3b) São necessários computadores de alto nível, e modelos pequenos são recomendados para o nível mais baixo.
  • Uso off-lineO modelo funciona mesmo se você se desconectar da Internet após o primeiro carregamento, mas é necessário fazer o download do modelo com antecedência.
  • Suporte à comunidadeProblemas podem ser adicionados Discórdia sondagem Arquivo (de computador).

O BrowserAI é simples e avançado. Basta seguir as etapas para configurar seu ambiente e experimentar a conveniência da IA local em seu navegador.

Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " BrowserAI: Executando modelos de IA localmente no navegador com WebGPUs

Chefe do Círculo de Compartilhamento de IA

O Chief AI Sharing Circle se concentra no aprendizado de IA, fornecendo conteúdo abrangente de aprendizado de IA, ferramentas de IA e orientação prática. Nosso objetivo é ajudar os usuários a dominar a tecnologia de IA e explorar juntos o potencial ilimitado da IA por meio de conteúdo de alta qualidade e compartilhamento de experiências práticas. Seja você um iniciante em IA ou um especialista sênior, este é o lugar ideal para adquirir conhecimento, aprimorar suas habilidades e realizar inovações.

Entre em contato conosco
pt_BRPortuguês do Brasil