AI Personal Learning
und praktische Anleitung

VideoChat: sprachinteraktive digitale Person in Echtzeit mit benutzerdefinierten Bild- und Tonklonen, die End-to-End-Sprachlösungen und kaskadierende Lösungen unterstützen

Allgemeine Einführung

VideoChat ist ein digitales Echtzeit-Sprachinteraktionsprojekt, das auf Open-Source-Technologie basiert und End-to-End-Sprachschemata (GLM-4-Voice - THG) und Kaskadenschemata (ASR-LLM-TTS-THG) unterstützt. Das Projekt ermöglicht es den Benutzern, das Bild und die Klangfarbe des digitalen Menschen anzupassen, und unterstützt das Klonen von Klangfarben und Lippensynchronisation, Video-Streaming-Ausgabe und eine Latenzzeit des ersten Pakets von nur 3 Sekunden. Die Benutzer können die Funktionalität durch Online-Demos erleben oder sie mit Hilfe der ausführlichen technischen Dokumentation lokal einsetzen und verwenden.

Demo-Adresse: https://www.modelscope.cn/studios/AI-ModelScope/video_chat


 

Funktionsliste

  • Sprachinteraktion in Echtzeit: Unterstützung für End-to-End-Sprachlösungen und Kaskadenlösungen
  • Individuelles Bild und Ton: Die Benutzer können das Aussehen und den Ton der digitalen Person ihren Bedürfnissen entsprechend anpassen
  • Klonen der Stimme: unterstützt das Klonen der Stimme des Benutzers, um ein personalisiertes Spracherlebnis zu ermöglichen
  • Niedrige Latenzzeit: Die Latenzzeit für das erste Paket beträgt nur 3 Sekunden, um eine reibungslose Interaktion zu gewährleisten.
  • Open-Source-Projekt: Basierend auf Open-Source-Technologie können Benutzer die Funktion frei ändern und erweitern

 

Hilfe verwenden

Ablauf der Installation

  1. Umgebung Konfiguration
    • Betriebssystem: Ubuntu 22.04
    • Python-Version: 3.10
    • CUDA Version: 12.2
    • Fackel Version: 2.1.2
  2. Klonprojekt
    git lfs install
    git clone https://github.com/Henry-23/VideoChat.git
    cd video_chat
    
  3. Erstellen einer virtuellen Umgebung und Installieren von Abhängigkeiten
    conda create -n metahuman python=3.10
    conda metahuman aktivieren
    pip install -r anforderungen.txt
    pip install --upgrade gradio
    
  4. Download der Datei mit den Gewichten
    • Es wird empfohlen, CreateSpace zum Herunterladen zu verwenden, ich habe git lfs eingerichtet, um die Gewichtsdateien zu verfolgen
    git clone https://www.modelscope.cn/studios/AI-ModelScope/video_chat.git
    
  5. Neue Dienste
    python app.py
    

Verwendung Prozess

  1. Konfigurieren des API-KEY::
    • Wenn die Leistung des lokalen Rechners begrenzt ist, können Sie die Qwen-API und die CosyVoice-API verwenden, die von Aliyuns großer Modell-Serviceplattform Hundred Refine auf demapp.pyKonfigurieren Sie den API-KEY in der
  2. lokale Inferenz::
    • Wenn Sie den API-KEY nicht verwenden, können Sie ihn in dersrc/llm.pyim Gesang antwortensrc/tts.pyKonfigurieren Sie die lokale Inferenzmethode in, um nicht benötigten API-Aufrufcode zu entfernen.
  3. Neue Dienste::
    • in Bewegung seinpython app.pyStarten Sie den Dienst.
  4. Anpassung der digitalen Persona::
    • existieren/data/video/Katalog, um eine Videoaufnahme des digitalen Menschenbildes hinzuzufügen.
    • Änderungen/src/thg.pyin der avatar_list der Klasse Muse_Talk, wobei der Bildname und bbox_shift hinzugefügt werden.
    • existierenapp.pyNachdem Sie den Namen der digitalen Persona zum avatar_name in Gradio hinzugefügt haben, starten Sie den Dienst neu und warten Sie, bis die Initialisierung abgeschlossen ist.

Detaillierte Vorgehensweise

  • Individuelles Bild und Ton: in /data/video/ Verzeichnis, um das aufgezeichnete Video des digitalen Menschenbildes in den src/thg.py Änderung Museum_Gespräch Klasse avatar_listefügen Sie den Bildnamen und bbox_shift Parameter.
  • Sprachklonen: in app.py Mittlere Konfiguration CosyVoice API oder mit Kante_TTS Lokale Argumentation durchführen.
  • End-to-End-Sprachlösungen: Verwendung GLM-4-Stimme Modelle für eine effiziente Spracherzeugung und -erkennung.

 

  1. Rufen Sie die Adresse des lokal eingerichteten Dienstes auf und gehen Sie zur Gradio-Schnittstelle.
  2. Wählen Sie ein benutzerdefiniertes digitales Persona-Video aus oder laden Sie es hoch.
  3. Konfigurieren Sie die Funktion zum Klonen von Stimmen, um die Stimmenprobe eines Benutzers hochzuladen.
  4. Starten Sie Sprachinteraktionen in Echtzeit und erleben Sie Dialogfunktionen mit geringer Latenz.
AI Leichtes Lernen

Der Leitfaden für Laien zum Einstieg in die KI

Hilft Ihnen, die Nutzung von KI-Tools kostengünstig und von Null an zu erlernen.KI ist, wie Bürosoftware, eine wesentliche Fähigkeit für jeden. Die Beherrschung von KI verschafft Ihnen einen Vorteil bei der Stellensuche und die Hälfte des Aufwands bei Ihrer zukünftigen Arbeit und Ihrem Studium.

Details ansehen>
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " VideoChat: sprachinteraktive digitale Person in Echtzeit mit benutzerdefinierten Bild- und Tonklonen, die End-to-End-Sprachlösungen und kaskadierende Lösungen unterstützen

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)