AI Personal Learning
und praktische Anleitung
豆包Marscode1

UltraLight Digital Human: quelloffenes, endseitig in Echtzeit laufendes, ultraleichtes Digital Human mit Ein-Klick-Installationspaket

Allgemeine Einführung

Ultralight Digital Human ist ein Open-Source-Projekt mit dem Ziel, ein ultraleichtes digitales Menschmodell zu entwickeln, das in Echtzeit auf mobilen Geräten laufen kann. Das Projekt ermöglicht einen reibungslosen Betrieb auf mobilen Geräten, indem Algorithmen und Modellstrukturen für eine Vielzahl von Szenarien wie soziale Anwendungen, Spiele und virtuelle Realität optimiert werden. Die Nutzer können ihre eigenen digitalen Menschmodelle leicht trainieren und einsetzen, um personalisierte und immersive Erfahrungen zu machen.

Was die Tatsache anbelangt, dass es auf dem Handy gut funktioniert, ändern Sie einfach die Anzahl der Kanäle des aktuellen Modells ein bisschen kleiner und verwenden Sie Wenet für die Audiofunktionen und Sie werden gut sein.


UltraLight Digital Human:手机设备即可实时运行的超轻量级数字人模型-1

 

Funktionsliste

  • EchtzeitbetriebModelle können in Echtzeit auf mobilen Geräten laufen und sind responsiv.
  • Leichte KonstruktionOptimierte Modellstruktur für ressourcenbeschränkte mobile Geräte.
  • Open-Source-ProjektDer Code und das Modell sind vollständig quelloffen und können von den Nutzern frei verändert und verwendet werden.
  • Multi-Szenario-AnwendungGeeignet für eine Vielzahl von Szenarien wie soziale Anwendungen, Spiele und virtuelle Realität.
  • Extraktion von AudiomerkmalenUnterstützt sowohl Wenet- als auch Hubert-Audio-Feature-Extraktionsverfahren.
  • SynchronnetzVerbesserte Lippensynchronisation mit Syncnet-Technologie.
  • Ausführliches TutorialAusführliche Schulungs- und Nutzungsanleitungen helfen den Anwendern, sich schnell zurechtzufinden.

 

Hilfe verwenden

Einbauverfahren

  1. Vorbereitung der Umwelt::
    • Installieren Sie Python 3.10 und höher.
    • Installieren Sie PyTorch 1.13.1 und andere Abhängigkeiten:
      conda create -n dh python=3.10
      conda activate dh
      conda install pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch-cuda=11.7 -c pytorch -c nvidia
      conda install mkl=2024.0
      pip install opencv-python transformers numpy==1.23.5 soundfile librosa onnxruntime
      
  2. Modelldateien herunterladen::
    • Laden Sie die Datei wenet encoder.onnx von folgendem Link herunter und platzieren Sie sie im Verzeichnis data_utils/ Katalog: Download-Link

Verwendungsprozess

  1. Das Video vorbereiten::
    • Bereiten Sie ein 3- bis 5-minütiges Video vor. Achten Sie darauf, dass jedes Bild eine vollständige Gesichtsbelichtung aufweist und dass der Ton klar und rauschfrei ist.
    • Legen Sie das Video in einem neuen Ordner ab.
  2. Extrahieren von Audiomerkmalen::
    • Verwenden Sie die folgenden Befehle, um Audio-Features zu extrahieren:
      cd data_utils
      python process.py YOUR_VIDEO_PATH --asr hubert
      
  3. Ausbildungsmodelle::
    • Trainieren Sie das Syncnet-Modell für bessere Ergebnisse:
      cd ..
      python syncnet.py --save_dir ./syncnet_ckpt/ --dataset_dir ./data_dir/ --asr hubert
      
    • Trainieren Sie das digitale Menschmodell anhand des Kontrollpunkts mit dem geringsten Verlust:
      python train.py --dataset_dir ./data_dir/ --save_dir ./checkpoint/ --asr hubert --use_syncnet --syncnet_checkpoint syncnet_ckpt
      
  4. Inferenz::
    • Extrahieren von Test-Audiomerkmalen:
      python extract_test_audio.py YOUR_TEST_AUDIO_PATH --asr hubert
      
    • Running Reasoning:
      python inference.py --dataset ./data_dir/ --audio_feat ./your_test_audio_hu.npy --save_path ./output.mp4 --checkpoint ./checkpoint/best_model.pth
      

caveat

  • Vergewissern Sie sich, dass die Videobildrate mit dem gewählten Schema für die Extraktion der Audiomerkmale übereinstimmt: 20fps für wenet und 25fps für hubert.
  • Während des Trainings- und Inferenzprozesses wird der Verlustwert des Modells regelmäßig überwacht und der optimale Kontrollpunkt für das Training ausgewählt.

 

Monkey One Click Integration Pack

首席AI分享圈Dieser Inhalt wurde vom Autor versteckt, bitte geben Sie den Verifizierungscode ein, um den Inhalt zu sehen
Captcha:
Bitte achten Sie auf diese Website WeChat öffentliche Nummer, Antwort "CAPTCHA, eine Art von Challenge-Response-Test (Computertechnik)", um den Verifizierungscode zu erhalten. Suchen Sie in WeChat nach "Leiter des AI-Austauschkreises"oder"Looks-AI" oder WeChat Scannen der rechten Seite des QR-Codes kann die Aufmerksamkeit auf diese Website WeChat öffentliche Zahl zu zahlen.

Darf nicht ohne Genehmigung vervielfältigt werden:Leiter des AI-Austauschkreises " UltraLight Digital Human: quelloffenes, endseitig in Echtzeit laufendes, ultraleichtes Digital Human mit Ein-Klick-Installationspaket
de_DEDeutsch