Allgemeine Einführung
DCT-Net ist ein Open-Source-Projekt, das von der DAMO Academy und dem Wang Xuan Institute of Computer Technology der Universität Peking entwickelt wurde und die stilisierte Umwandlung von Bildern für Animationen zum Ziel hat. Das Projekt nutzt Deep-Learning-Techniken, um natürliche Fotos nahtlos in verschiedene Kunststile wie Animation, 3D, handgemalte Bilder, Skizzen usw. umzuwandeln, indem es Domain-Calibrated Translation einsetzt. DCT-Net bietet eine Vielzahl von Pre-Trainingsmodellen und unterstützt das Training von maßgeschneiderten Stildaten, die für die persönliche Unterhaltung, kreatives Design sowie die Film- und Spieleindustrie geeignet sind. Film- und Spieleindustrie.
Funktionsliste
- Bietet eine große Auswahl an vortrainierten Modellen, die ein breites Spektrum an künstlerischen Stilen abdecken
- Unterstützung für Training mit benutzerdefinierten Stildaten
- Online-Testversion, keine Konfiguration der lokalen Umgebung erforderlich
- Effiziente Leistung, die sowohl CPU- als auch GPU-Umgebungen unterstützt
- Stilkonvertierung für Bilder und Videos
Hilfe verwenden
Installation und Konfiguration
- Installation von Abhängigkeiten: Zuerst müssen Sie das Programm
modelscope
Bibliothek, die mit dem folgenden Befehl installiert werden kann:Pip-Installation "modelscope[cv]" -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html
- Download des vortrainierten ModellsBeim ersten Durchlauf des Codes lädt das Modell automatisch die Pre-Training-Datei herunter.
Bildstil-Konvertierung
- Definition des ModellsDefinition von fünf Arten von Gesichtern, die durch das DCT-Net-Modell umgewandelt werden sollen:
model_dict = { "Anime": "damo/cv_unet_person-image-cartoon_compound-models", "3d": "damo/cv_unet_person-image-cartoon-3d_compound-models", "handgezeichnet": "damo/cv_unet_person-image-cartoon-handdrawn_compound-models", "Skizze": "damo/cv_unet_person-image-cartoon-sketch_compound-models", "Kunst": "damo/cv_unet_person-image-cartoon-artstyle_compound-models" }
- Bilder laden und konvertieren::
importieren os importieren cv2 von IPython.Anzeige importieren Bild, Anzeige, clear_output von modelscope.pipelines importieren Pipeline von modelscope.utils.constant importieren Aufgaben von modelscope.outputs importieren OutputKeys Stil = "Anime" # Optional "anime", "3d", "handgezeichnet", "Skizze", "Kunst" Dateiname = "4.jpg" img_path = Bild/' + Dateiname
Video-Stil-Konvertierung
- Videobilder extrahieren::
Video = sample_video.mp4' video_file = 'Film/' + Video image_dir = 'film/images/' vc = cv2.VideoCapture(video_file) i = 0 wenn vc.isOpened(). rval, frame = vc.read() während rval. cv2.imwrite(image_dir + str(i) + '.jpg', Rahmen) i += 1 rval, frame = vc.read() vc.release()
- Konvertierung von VideobildernStilisieren Sie jedes Bild mit der gleichen Methode wie bei der Bildkonvertierung und fügen Sie die konvertierten Bilder zu einem Video zusammen.