AI Personal Learning
und praktische Anleitung

Go-with-the-Flow: Steuert die Bewegung von Objekten im Video, wobei alle sich bewegenden Objekte im Video addiert oder subtrahiert werden.

Allgemeine Einführung

Go-with-the-Flow ist ein Open-Source-Projekt, das vom Forschungsteam der Netflix Eyeline Studios entwickelt wurde, um die Bewegungsmuster von Videodiffusionsmodellen durch Verzerrung des Rauschens zu steuern. Mit dem Projekt können Benutzer bestimmen, wie sich Kameras und Objekte in einer Szene bewegen, und sogar Bewegungsmuster von einem Video auf ein anderes übertragen.Go-with-the-Flow erreicht dies durch Feinabstimmung des zugrunde liegenden Modells, ohne die ursprüngliche Pipeline oder Architektur zu ändern. Der Code und die Modelle des Projekts sind Open Source und können von den Nutzern frei verwendet und verändert werden.

ComfyUI-Knoten: https://github.com/kijai/ComfyUI-VideoNoiseWarp


Go-with-the-Flow: Steuert die Bewegung von Objekten im Video, wobei jedes sich bewegende Objekt im Video hinzugefügt oder abgezogen wird -1

 

Funktionsliste

  • Steuerung von Scher- und SchleppbewegungenBenutzer können Videos erstellen, indem sie verschiedene Teile eines Bildes ausschneiden und sie herumziehen.
  • Verbreitung von VideosDie Umwandlung einer groben Animation in eine schöne Animation erfordert den Einsatz des Grafikprozessors.
  • RauschverzerrungVerwenden Sie verzerrtes Rauschen anstelle von reinem Gaußschen Rauschen, um eine natürlichere Bewegung zu erzielen.
  • Bewegungsmodus VerschiebungBewegungsmuster von einem Video auf ein anderes übertragen.
  • Grafische Benutzeroberfläche (GUI)Bietet ein natives GUI für vom Benutzer erstellte Animationen.
  • offene QuelleAlle Codes und Modelle sind quelloffen und können von den Benutzern frei zugänglich gemacht und verändert werden.

 

Hilfe verwenden

Ablauf der Installation

  1. Klon-Lagerhaus:
   git clone https://github.com/VGenAI-Netflix-Eyeline-Research/Go-with-the-Flow.git
cd Mit-dem-Fluss-gehen
  1. Installieren Sie lokale Abhängigkeiten:
   pip install -r anforderungen_lokal.txt
  1. Starten Sie die GUI:
   python cut_and_drag_gui.py

Folgen Sie den Anweisungen in der grafischen Benutzeroberfläche, um den Vorgang abzuschließen. Die erzeugten MP4-Dateien müssen zur weiteren Verarbeitung auf einen Computer mit einem Grafikprozessor übertragen werden.

Verwendung Prozess

  1. Klonen Sie das Repository und installieren Sie die Abhängigkeiten auf einem Computer mit einem Grafikprozessor:
   git clone https://github.com/VGenAI-Netflix-Eyeline-Research/Go-with-the-Flow.git
cd Go-with-the-Flow
pip install -r anforderungen.txt
  1. Verzerrungsrauschen:
   python make_warped_noise.py  --output_folder noise_warp_output_folder
  1. Running Reasoning:
   python cut_and_drag_inference.py noise_warp_output_folder \
--prompt "Eine Ente plätschert" \\
--output_mp4_path "output.mp4" \\
--device "cuda" \
--num_inference_steps 5

Passen Sie Ordnerpfade, Stichwortwörter und andere Hyperparameter nach Bedarf an. Die Ausgabe wird gespeichert als Ausgabe.mp4.

Hauptfunktionen

  • Steuerung von Scher- und SchleppbewegungenWählen Sie verschiedene Teile des Bildes in der GUI aus und ziehen Sie sie, um grobe Animationen zu erstellen.
  • Verbreitung von VideosÜbertragen Sie grobe Animationsdateien auf einen Computer mit einem Grafikprozessor und führen Sie Inferenzskripte aus, um schöne Animationen zu erzeugen.
  • Rauschverzerrung: Verwendung make_warped_noise.py Das Skript erzeugt Verzerrungsgeräusche für natürlichere Bewegungseffekte.
  • Bewegungsmodus VerschiebungAnwenden von Bewegungsmustern von einem Video auf ein anderes durch Anpassen von Hinweisen und Hyperparametern.

Detaillierte Vorgehensweise

  1. Ausschneiden und ZiehenLaden Sie ein Bild in die GUI und verwenden Sie die Maus, um verschiedene Teile des Bildes auszuwählen und zu ziehen, um grobe Animationen zu erstellen.
  2. Erzeugen von verzerrtem RauschenLäuft auf einem Computer mit einem Grafikprozessor make_warped_noise.py Skript, das die Datei mit dem Verzerrungsrauschen erzeugt.
  3. logische Schlussfolgerungen: Verwendung cut_and_drag_inference.py Skripte, die grobe Animationen in schöne Animationen für die Ausgabe in MP4-Dateien umwandeln.
  4. AnpassungsparameterCues, Hyperparameter und Dateipfade nach Bedarf anpassen, um beste Ergebnisse zu erzielen.

Mit den oben genannten Schritten können die Benutzer die Bewegungsmuster des Videos leicht erstellen und kontrollieren, um qualitativ hochwertige Videos und Animationen zu erstellen.

Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " Go-with-the-Flow: Steuert die Bewegung von Objekten im Video, wobei alle sich bewegenden Objekte im Video addiert oder subtrahiert werden.

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)