AI Personal Learning
und praktische Anleitung
Sitzsack Marscode1

BrowserAI: Lokale Ausführung von KI-Modellen im Browser mit WebGPUs

Allgemeine Einführung

BrowserAI ist ein Open-Source-Tool, mit dem Benutzer native KI-Modelle direkt im Browser ausführen können. Es wurde vom Cloud-Code-AI-Team entwickelt und unterstützt Sprachmodelle wie Llama, DeepSeek und Kokoro. Benutzer können Aufgaben wie Texterstellung, Spracherkennung und Text-to-Speech über den Browser ausführen, ohne dass ein Server oder eine komplexe Einrichtung erforderlich ist. BrowserAI ist einfach und leicht zu bedienen, so dass Entwickler damit KI-Apps erstellen können und auch normale Nutzer die KI-Funktionen nutzen können. Das Projekt ist kostenlos und offen auf GitHub, so dass jeder den Code herunterladen und verwenden oder verbessern kann.

BrowserAI: Lokale Ausführung von KI-Modellen mit WebGPU-Browsern-1

BrowserAI Text-Dialog


BrowserAI: Lokale Ausführung von KI-Modellen mit WebGPU-Browsern-1

BrowserAI Sprachdialog

 

BrowserAI: Lokale Ausführung von KI-Modellen mit WebGPU-Browsern-1

BrowserAI Text-to-Speech

 

Funktionsliste

  • Führen Sie lokale KI-Modelle in Ihrem Browser ohne Serverunterstützung aus.
  • Die Texterstellung wird unterstützt, so dass Benutzer Text eingeben können und eine Antwort in natürlicher Sprache erhalten.
  • Bietet Spracherkennung zur Umwandlung von Audio in Text.
  • Unterstützt Text-to-Speech und wandelt Text in abspielbaren Ton um.
  • Mit WebGPU beschleunigt, läuft es mit nahezu nativer Leistung.
  • Die Offline-Funktionalität wird bereitgestellt, so dass nach dem ersten Download keine Internetverbindung erforderlich ist.
  • Offener Quellcode, Unterstützung für Entwickler bei der Anpassung von Modellen und Funktionen.

 

Hilfe verwenden

Ablauf der Installation

BrowserAI erfordert keine traditionelle Installation, aber es erfordert die Vorbereitung der Umgebung und des Codes zur Ausführung. Hier sind die genauen Schritte:

  1. Prüfen Sie Ihren Browser
    • Verwenden Sie einen WebGPU-fähigen Browser wie Chrome 113+ oder Edge 113+. Geben Sie in der Adressleiste Ihres Browsers Folgendes ein chrome://gpu Prüfen Sie, ob WebGPU aktiviert ist.
    • Vergewissern Sie sich, dass Ihre Computer-Hardware 16-Bit-Gleitkomma unterstützt (einige Modelle erfordern dies), und dass eine normale CPU das Programm ausführen kann, aber eine GPU ist schneller.
  2. Code herunterladen
    • Besuchen Sie https://github.com/Cloud-Code-AI/BrowserAI.
    • Klicken Sie auf die Schaltfläche "Code" und wählen Sie "Download ZIP", um den Code herunterzuladen, oder verwenden Sie den Befehl git clone https://github.com/Cloud-Code-AI/BrowserAI.git.
    • Entpacken Sie die Datei oder rufen Sie den Ordner auf.
  3. Installation von Node.js und Abhängigkeiten
    • Installieren Sie zunächst Node.js, laden Sie es von der offiziellen Node.js-Website herunter und installieren Sie es, und geben Sie anschließend Knoten -v Bestätigen Sie die Version.
    • Öffnen Sie ein Terminal und wechseln Sie in den Ordner BrowserAI (z.B. cd BrowserAI).
    • Einfuhr npm-Installation Installieren Sie die Abhängigkeiten. Dieser Vorgang kann einige Minuten dauern.
  4. Initiierung von Projekten
    • Geben Sie in das Terminal npm run devstarten Sie den lokalen Server.
    • Öffnen Sie Ihren Browser und geben Sie http://localhost:3000(die Portnummer finden Sie in der Terminal-Eingabeaufforderung) und rufen Sie die BrowserAI-Schnittstelle auf.

Verwendung der wichtigsten Funktionen

Der Kern von BrowserAI ist die Ausführung von KI-Modellen im Browser, die im Folgenden ausführlich beschrieben wird.

Funktion 1: Textgenerierung

  • Verfahren
    1. Nach dem Start zeigt die Schnittstelle das Modellauswahlfeld an, das standardmäßig die lama-3.2-1b-anweisung und andere Optionen.
    2. Klicken Sie auf "Modell laden" und warten Sie, bis das Modell geladen ist (einige Sekunden bis einige Minuten, je nach Leistung des Computers).
    3. Geben Sie einen Text in das Eingabefeld ein, z. B. "Wie ist das Wetter heute?" und klicken Sie auf "Generieren".
    4. Das System erzeugt Antworten wie "Es ist ein schöner Tag zum Ausgehen". .
  • Tipps & Tricks
    • Kleine Modelle (z.B. TinyLlama-1.1B) wird schnell geladen und ist für Computer der unteren Leistungsklasse geeignet.
    • Geben Sie eine spezifische Frage ein, um eine genauere Antwort zu erhalten, z. B. "Schreiben Sie einen technischen Artikel mit 50 Wörtern".
  • Anwendungsszenario
    • Schreiben Sie erste Entwürfe von Artikeln, entwickeln Sie Dialoge oder testen Sie modellhafte Sprachkenntnisse.

Funktion 2: Spracherkennungsfunktion

  • Verfahren
    1. Wählen Sie ein Modell, das Spracherkennung unterstützt, z. B. flüster-winzig-de.
    2. Klicken Sie auf "Modell laden", um das Modell zu laden.
    3. Klicken Sie auf "Aufnahme starten" und sprechen Sie in das Mikrofon, z.B. "Hallo, BrowserAI".
    4. Klicken Sie auf "Aufnahme stoppen", warten Sie ein paar Sekunden und die Schnittstelle zeigt den transkribierten Text an, z. B. "Hallo, BrowserAI".
  • Tipps & Tricks
    • Vergewissern Sie sich, dass das Mikrofon ordnungsgemäß funktioniert und wenig Hintergrundgeräusche vorhanden sind, um bessere Ergebnisse zu erzielen.
    • Optionale Parameter rückkehr_Zeitstempel Zeigen Sie den Zeitstempel eines jeden Absatzes an.
  • Anwendungsszenario
    • Aufzeichnung von Besprechungen, Transkription von Sprachnotizen oder Entwicklung von Spracheingabeanwendungen.

Funktion 3: Text-to-Speech

  • Verfahren
    1. Option kokoro-tts Modell, klicken Sie auf "Modell laden".
    2. Geben Sie einen Text ein, z. B. "Willkommen beim BrowserAI-Erlebnis".
    3. Wählen Sie die Stimme (z. B. af_bella) und Geschwindigkeit (Standard 1.0), klicken Sie auf "Text in Sprache".
    4. Erzeugen Sie Audio und spielen Sie es automatisch ab oder laden Sie die Datei herunter.
  • Tipps & Tricks
    • Die Sätze sind natürlicher, und langsamere Geschwindigkeiten (z. B. 0,8) sind klarer.
    • Testen Sie verschiedene Sprachoptionen, um den am besten geeigneten Ton zu finden.
  • Anwendungsszenario
    • Erstellen Sie Sprachansagen, generieren Sie Podcast-Clips oder synchronisieren Sie Videos.

Funktion 4: Anpassung für Entwickler

  • Verfahren
    1. Laden Sie die Modelldateien herunter, die Sie verwenden möchten (z. B. von Hugging Face), und legen Sie sie in das Projektverzeichnis (siehe README.md).
    2. Compiler src/index.tsfügen Sie den Modellpfad hinzu.
    3. in Bewegung sein npm run devladen Sie das neue Modell.
  • Tipps & Tricks
    • Stellen Sie sicher, dass das Modell mit WebGPU und WebAssembly kompatibel ist.
    • Wenn Sie den Code nicht kennen, können Sie eine Anfrage auf GitHub stellen.
  • Anwendungsszenario
    • Testen neuer Modelle, Entwicklung kundenspezifischer KI-Anwendungen.

Der Beispielcode verwendet

Textgenerierung

  • Einführung von BrowserAI in das Projekt:
    import { BrowserAI } from '@browserai/browserai';
    const ai = new BrowserAI();
    await ai.loadModel('llama-3.2-1b-instruct'); const response = await ai.generateText('@browserai/browserai')
    const response = await ai.generateText('Hallo, wie ist das Wetter heute?') ;
    console.log(response);

Sprache-zu-Text

  • Aufnahme und Transkription von Audiodaten:
    const ai = new BrowserAI();
    await ai.loadModel('whisper-tiny-de');
    await ai.startRecording(); const audio = await ai.stopRecording(); await ai.stopRecording()
    const audio = await ai.stopRecording(); const text = await ai.transcribeAccess('whisper-tiny-de')
    const text = await ai.transcribeAudio(audio); console.log(text);
    console.log(text);
    

caveat

  • LeistungenGroße Modelle (z. B. Llama-3.2-3b) High-End-Computer sind erforderlich, während für Low-End-Computer kleine Modelle empfohlen werden.
  • Offline-NutzungEs funktioniert auch, wenn Sie die Internetverbindung nach dem ersten Laden trennen, aber Sie müssen das Modell vorher herunterladen.
  • Unterstützung der Gemeinschaft: Probleme können hinzugefügt werden Diskord Sondierung (Computer-)Datei.

BrowserAI ist einfach und leistungsstark. Folgen Sie einfach den Schritten, um Ihre Umgebung einzurichten und erleben Sie den Komfort der lokalen KI in Ihrem Browser.

Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " BrowserAI: Lokale Ausführung von KI-Modellen im Browser mit WebGPUs

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)