AI Personal Learning
und praktische Anleitung
讯飞绘镜

MatAnyone: Open-Source-Tool zum Extrahieren des Videos, um das Zielporträt zu bestimmen und das Zielporträtvideo zu erzeugen

Allgemeine Einführung

MatAnyone ist ein Open-Source-Projekt mit Schwerpunkt auf Video-Keying, das von einem Forschungsteam am S-Lab der Nanyang Technological University in Singapur entwickelt und auf GitHub veröffentlicht wurde. Es bietet Nutzern stabile und effiziente Videoverarbeitungsfunktionen durch konsistente Speicherausbreitungstechniken und ist besonders gut in der Handhabung von zielspezifischen Keying-Aufgaben in komplexen Hintergründen. Das 2025 von Forschern wie Peiqing Yang ins Leben gerufene Projekt kombiniert fortschrittliche Bildverarbeitungsalgorithmen für Szenarien, die eine qualitativ hochwertige Videosegmentierung erfordern, wie z. B. Film- und TV-Postproduktion, virtuelle Hintergrundersetzung usw. Die Hauptstärke von MatAnyone liegt in seinem Speicherfusionsmodul, das in der Lage ist, die Details der Objektgrenzen fein zu erhalten, während die Kernregion semantisch stabil bleibt. Das Projekt hat in der akademischen und Open-Source-Gemeinschaft Aufmerksamkeit erregt und wird unter der NTU S-Lab Licence 1.0 veröffentlicht, die es den Nutzern erlaubt, den Code kostenlos herunterzuladen, zu verwenden und zu verändern.

MatAnyone: 稳定抠除视频中人物元素的开源工具-1


 

Funktionsliste

  • Zielspezifisches Video-KeyingUnterstützt benutzerspezifisches Keying von spezifischen Objekten, geeignet für die Videosegmentierung von Personen oder anderen dynamischen Zielen.
  • Kohärente SpeicherübertragungSicherstellung kohärenter Keying-Ergebnisse zwischen Videobildern durch regionale adaptive Speicherfusion.
  • Hochwertige RandbearbeitungBewahren Sie feine Details von Objektkanten und verbessern Sie die Keying-Genauigkeit für die professionelle Videobearbeitung.
  • Vorhersage der ersten BildmaskeVorhersage der Alphamatte nachfolgender Bilder auf der Grundlage der Segmentierungsmaske des ersten Bildes, ohne zusätzliche Eingaben.
  • Open-Source-UnterstützungVollständiger Code und Dokumentation werden zur Verfügung gestellt, so dass eine benutzerdefinierte Optimierung oder Sekundärentwicklung möglich ist.
  • Plattformübergreifende KompatibilitätLäuft auf mehreren Betriebssystemen und ist für Entwickler leicht in bestehende Arbeitsabläufe zu integrieren.

 

Hilfe verwenden

Einbauverfahren

MatAnyone ist ein Open-Source-Projekt auf GitHub, das eine grundlegende Python-Programmierumgebung und Git-Tools erfordert. Hier sind die Schritte zur Installation von MatAnyone:

1. die Vorbereitung der Umwelt

  • BetriebssystemWindows, Linux oder macOS werden unterstützt.
  • Software-Abhängigkeit::
    • Python 3.8 oder höher.
    • Git (zum Klonen von Code von GitHub).
    • Conda (empfohlen für die Erstellung virtueller Umgebungen).
  • Hardware-VoraussetzungEin Grafikprozessor (z. B. eine NVIDIA-Grafikkarte) wird empfohlen, um den Inferenzprozess zu beschleunigen; eine CPU kann ebenfalls verwendet werden, allerdings mit einer geringeren Geschwindigkeit.

2) Herunterladen von Code

Öffnen Sie ein Terminal oder eine Kommandozeile und geben Sie den folgenden Befehl ein, um das MatAnyone-Repository zu klonen:

git clone https://github.com/pq-yang/MatAnyone.git
cd MatAnyone

Dadurch werden die Projektdateien in ein lokales Verzeichnis heruntergeladen.

3. die Schaffung von virtuellen Umgebungen

Verwenden Sie Conda, um eine separate Python-Umgebung zu erstellen und zu aktivieren und Abhängigkeitskonflikte zu vermeiden:

conda create -n matanyone python=3.8 -y
conda activate matanyone

4. die Installation von Abhängigkeiten

Führen Sie im Stammverzeichnis des Projekts den folgenden Befehl aus, um die erforderlichen Python-Bibliotheken zu installieren:

pip install -r requirements.txt

Abhängigkeiten requirements.txt Alle für das Projekt erforderlichen Bibliotheken sind enthalten, z. B. PyTorch, OpenCV, usw. Wenn Sie Netzwerkprobleme haben, versuchen Sie, die Pip-Quelle zu ändern (z. B. mit pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt).

5) Herunterladen von vortrainierten Modellen

MatAnyone benötigt vortrainierte Modelldateien, um zu laufen. Die Autoren stellen auf der Projektseite einen Link zum Herunterladen des Modells zur Verfügung (normalerweise in README.md), das der Benutzer manuell herunterladen und in einem bestimmten Ordner ablegen muss (z. B. models/ (Katalog). Besondere Schritte:

  • Besuchen Sie die GitHub-Projektseite (https://github.com/pq-yang/MatAnyone).
  • Den Link zum Herunterladen des Modells finden Sie in der README-Datei (die auf Google Drive oder Hugging Face verweisen kann).
  • Laden Sie die Modelldateien herunter und entpacken Sie sie in den Ordner MatAnyone/models/ Katalog.

6. die Überprüfung der Installation

Führen Sie den folgenden Befehl aus, um zu prüfen, ob die Umgebung erfolgreich konfiguriert wurde:

python test.py

Wenn keine Fehler gemeldet werden, ist die Installation abgeschlossen und Sie können die Software verwenden.

Hauptfunktionen

Die Hauptfunktion von MatAnyone ist das zielgerichtete Video-Keying, und hier sind die wichtigsten Schritte, wie man es benutzt:

Funktion 1: Gezieltes Video-Keying

  1. Vorbereiten der Videoeingabe::
    • Legen Sie die zu bearbeitende Videodatei (z. B. input_video.mp4) in das Projektverzeichnis unter dem data/ (Sie können diesen Ordner manuell erstellen, wenn er nicht existiert).
    • Vergewissern Sie sich, dass das Videoformat unterstützt wird (z. B. MP4, AVI) und dass die Auflösung moderat ist (eine zu hohe Auflösung kann mehr Computerressourcen erfordern).
  2. Erzeugen der ersten Bildmaske::
    • Verwenden Sie ein externes Tool wie Photoshop oder ein Open-Source-Segmentierungstool, um eine Segmentierungsmaske des Zielobjekts für das erste Bild des Videos zu erstellen (im PNG-Format, mit Weiß für den Zielbereich und Schwarz für den Hintergrund).
    • Benennen Sie die Maskendatei mask_frame1.pnghineinstecken data/masks/ Mappe.
  3. Führen Sie den Keying-Befehl aus::
    Wechseln Sie im Terminal in das Projektverzeichnis und führen Sie den folgenden Befehl aus:

    python inference.py --video data/input_video.mp4 --mask data/masks/mask_frame1.png --output output/
    
    • --video Gibt den Eingangsvideopfad an.
    • --mask Gibt den ersten Bildmaskenpfad an.
    • --output Geben Sie den Ausgabeordner an, und das Ergebnis wird als Videodatei mit transparentem Hintergrund gespeichert.
  4. Ergebnisse anzeigen::
    • Nach Abschluss der Bearbeitung öffnen Sie die output/ wird das erzeugte Keying-Video als Bildsequenz oder als vollständiges Video gespeichert (je nach Konfiguration).

Funktion 2: Konsistente Speicherweitergabe

  • TheorieMatAnyone stellt sicher, dass die Keying-Ergebnisse in der Zeitdimension kohärent sind, indem es die Merkmale des vorherigen Bildes speichert und in die Verarbeitung des aktuellen Bildes einfließen lässt.
  • RiggEs ist keine zusätzliche Konfiguration erforderlich, da diese Funktion in den Inferenzprozess integriert ist. Solange die erste Bildmaske angegeben wird, überträgt das Programm den Speicher automatisch Bild für Bild.
  • Tipps zur Optimierung::
    • Wenn sich die Beleuchtung im Video plötzlich ändert, passen Sie die Parameter in der Konfigurationsdatei an (z. B. memory_fusion_rate), für eine Beschreibung der Parameter siehe config.yaml Dokumentation.
    • Beispiel Einstellungsbefehl:
      python inference.py --video data/input_video.mp4 --mask data/masks/mask_frame1.png --config config.yaml --output output/
      

Funktion 3: Hochwertige Randbearbeitung

  • Methode zur FreigabeStandardmäßig aktiviert, keine weitere Aktion erforderlich. Das Programm optimiert automatisch die Kantendetails.
  • die Wirksamkeit zu überprüfenBei der Verarbeitung von Videos mit komplexen Hintergründen (z. B. Haare einer Figur, die im Wind schwingen) sollten Sie darauf achten, ob die Ränder im Ausgabevideo natürlich aussehen.
  • VerstärkungseffektWenn die Ergebnisse nicht zufriedenstellend sind, versuchen Sie, die Auflösung der Inferenz zu erhöhen, indem Sie den Befehl --resolution 1080 Parameter:
    python inference.py --video data/input_video.mp4 --mask data/masks/mask_frame1.png --resolution 1080 --output output/
    

Vorsichtsmaßnahmen für die Verwendung

  • ComputerressourceBei der Verwendung einer CPU wird empfohlen, die Länge des Videos zu verkürzen (weniger als 30 Sekunden), um die Wartezeit zu verringern.
  • Qualität der ErstbildmaskeDie Genauigkeit der Maske wirkt sich direkt auf die Ergebnisse der nachfolgenden Bilder aus, und es empfiehlt sich eine sorgfältige Aufzeichnung, insbesondere in den Randbereichen.
  • Hinweis auf die DokumentationBei Problemen wenden Sie sich bitte an README.md Oder wenden Sie sich an den Autor unter peiqingyang99@outlook.com.
  • Unterstützung der GemeinschaftDie GitHub Issues-Seite enthält Benutzerfeedback und Lösungen, und es wird empfohlen, sie regelmäßig auf Aktualisierungen zu überprüfen.

Mit den oben genannten Schritten können Benutzer schnell mit MatAnyone beginnen und den gesamten Prozess von der Installation bis zum Video-Keying abschließen. Ob für die professionelle Bearbeitung oder für Forschung und Entwicklung, MatAnyone bietet stabile technische Unterstützung.

Darf nicht ohne Genehmigung vervielfältigt werden:Leiter des AI-Austauschkreises " MatAnyone: Open-Source-Tool zum Extrahieren des Videos, um das Zielporträt zu bestimmen und das Zielporträtvideo zu erzeugen
de_DEDeutsch