aufstellen | Optionen (wie bei Computersoftware-Einstellungen) | Beschreibungen | Nachteile |
---|---|---|---|
Basis_Modell | String-Pfad zur Basismodelldatei | Diese Option gibt den Pfad zu der Basismodelldatei an, die als Ausgangspunkt für das Training eines neuen Modells verwendet werden soll. Das Modell wird anhand der neuen Daten feinabgestimmt. | Es ist wichtig, das zugrundeliegende Modell zu wählen, das für die Aufgabe und die Daten relevant ist, da sonst der Feinabstimmungsprozess die Leistung nicht verbessern kann. |
img_ordner | String-Pfad zum Ordner, der die Übungsbilder enthält | Diese Option gibt den Pfad zu dem Ordner an, der die Trainingsbilder enthält, die zum Trainieren des Modells verwendet werden. | Die Qualität und Quantität der Trainingsbilder kann die Leistung des Modells stark beeinflussen. Eine ausreichende Vielfalt und Qualität der Bilder ist für das Lernen des Modells entscheidend. |
ausgabe_ordner | String-Pfad zu dem Ordner, in dem das Ausgabemodell gespeichert ist | Diese Option gibt den Pfad zu dem Ordner an, in dem das Ausgabemodell nach dem Training gespeichert wird. | Der Ausgabeordner sollte über genügend Speicherplatz verfügen, um die Modelldateien zu speichern. Es ist wichtig, die Modelldateien regelmäßig zu sichern, falls Daten verloren gehen und die Arbeit verloren geht. |
Name_der_Ausgabe_ändern | boolean | Gibt an, ob der Name der Ausgabe des Trainingsmodells geändert werden soll. Bei True wird der Name der Ausgabe geändert, andernfalls bleibt er unverändert. | K.A. |
save_json_folder | string (Informatik) | Pfad zum Ordner, in dem die json-Datei für das Trainingsmodell gespeichert werden soll. | K.A. |
load_json_path | string (Informatik) | Der Pfad zu der json-Datei, die zum Laden der Modellparameter verwendet werden soll. Dies ist nützlich, um das Training von einem früheren Kontrollpunkt aus fortzusetzen. | Die mit load_json_path angegebene Datei muss existieren und eine gültige json-Datei sein. |
json_load_skip_list | Stringliste | Gibt eine Liste von Zeichenfolgen für Schlüssel in der Modellkonfiguration an, die nicht in die gespeicherte .json-Datei geladen werden. | Wenn Sie versehentlich die erforderlichen Schlüssel in json_load_skip_list eingeben, funktioniert das Modell möglicherweise nicht wie erwartet. |
multi_run_folder | string (Informatik) | Der Name des Ordners, in dem die Ergebnisse mehrerer Trainingsläufe gespeichert werden, im Format {multirun_folder}/run{run_number}/. | Wenn mehrere Läufe durchgeführt werden, ohne den Namen des Ordners multi_run_folder zu ändern, werden die vorherigen Ergebnisse überschrieben. |
save_json_only | boolean | Wenn diese Option auf True gesetzt ist, wird nur die Modellkonfigurationsdatei (.json-Format) gespeichert, nicht die vollständigen Modellprüfpunkte. | Die .json-Datei allein kann das Modell nicht wiederherstellen, und wenn save_json_only auf True gesetzt ist, müssen Sie das Training von vorne beginnen. |
beschriftung_ausfall_rate | Fließkommazahlen zwischen 0 und 1 | Gibt die zufällige Ablehnungsrate von Titeln während des Trainings an. | Wenn dieser Wert zu hoch angesetzt ist, können wichtige Informationen im Titel verloren gehen, was zu qualitativ schlechteren Ergebnissen führt. |
caption_dropout_every_n_epochs | Ganzzahl (math.) | Geben Sie die Häufigkeit (in Runden) an, mit der Titelabwürfe während des Trainings durchgeführt werden. | Wenn dieser Wert zu hoch eingestellt ist, wird das Modell während des Trainings möglicherweise nicht mit einer ausreichenden Titelvielfalt konfrontiert, was zu einer Überanpassung führt. Wird er zu niedrig angesetzt, hat das Modell möglicherweise nicht genug Zeit, um aus den Schlagzeilen zu lernen, bevor es verworfen wird. |
caption_tag_dropout_rate | Fließkommazahlen zwischen 0 und 1 | Steuert die zufällige Verwerfungsrate von Titeln beim Training des Modells. Ein hoher Wert bedeutet, dass mehr Titel verworfen werden, während ein niedriger Wert bedeutet, dass weniger Titel verworfen werden. | Ein hoher Wert kann dazu führen, dass wichtige Informationen im Titel verloren gehen, was zu einer geringeren Qualität der Ergebnisse führt. |
netz_dim | Ganzzahl (math.) | Diese Einstellung bestimmt die Anzahl der versteckten Einheiten in der Netzarchitektur des Modells. Größere net_dim-Werte führen zu einem komplexeren und größeren Modell, erfordern aber auch mehr Rechenressourcen und können zu einer Überanpassung führen, wenn das Modell zu groß ist und nicht genügend Trainingsdaten vorhanden sind. | Überanpassung, zunehmende Rechenressourcen |
alpha | Fließkomma | Diese Einstellung bestimmt die beim Training verwendete Lernkapazität. Größere Alpha-Werte können zu einer schnelleren Konvergenz führen, aber wenn sie zu hoch eingestellt sind, können sie auch zu einer Überanpassung des Modells oder zu einer Konvergenz zu suboptimalen Lösungen führen. Kleinere Alpha-Werte können zu einer langsamen oder gar keiner Konvergenz führen. | Suboptimale Lösung, langsame Konvergenz |
Planer | string (Informatik) | Mit dieser Einstellung wird das während des Trainings verwendete Lernratenschema festgelegt. Zur Auswahl stehen die Optionen "Schritt", "Kosinus" und "Plateau". Der Stufenplan reduziert die Lernrate nach einer bestimmten Anzahl von Iterationen um einen festen Faktor, während der Kosinusplan die Lernrate um eine Kosinusfunktion reduziert. Der Plateau-Plan reduziert die Lernrate, wenn sich der Validierungsverlust nicht mehr verbessert. | Suboptimale Lösung, langsame Konvergenz, Schwierigkeiten bei der Auswahl eines geeigneten Plans |
cosine_neustarts | Ganzzahl (math.) | Die Anzahl der Neustarts des Cosine-Annealing-Verfahrens. Durch eine größere Anzahl von Neustarts kann sich die Lernrate häufiger ändern, wodurch das Risiko, in eine suboptimale Lernrate zu fallen, verringert wird. | Eine Erhöhung der Anzahl der Neustarts kann zu häufigeren Änderungen der Lernrate führen, was den Trainingsprozess instabiler und schwieriger zu justieren machen kann. |
scheduler_power | Fließkomma | Der Leistungsparameter des Schedulers. Größere Power-Werte bedeuten, dass sich die Lernrate langsamer ändert. | Die Einstellung höherer Leistungswerte kann zu einer Lernrate führen, die zu langsam ist, um in einer angemessenen Zeit zu konvergieren. Andererseits kann das Einstellen niedrigerer Leistungswerte zu einer zu aggressiven Lernrate führen, wodurch das Modell die Trainingsdaten übererfüllt. |
aufwärm_lr_ratio | Fließkomma | Das Verhältnis zwischen der maximalen Lernrate und der anfänglichen Lernrate während der Aufwärmphase. Die Lernrate erhöht sich allmählich vom Anfangswert bis zum Maximalwert. | Eine hohe Aufwärm-Lernrate kann zu einem Modell führen, das nur langsam oder gar nicht konvergiert. Andererseits kann eine niedrige Aufwärm-Lernrate zu einer Lernrate führen, die zu niedrig ist, um das Modell effektiv zu trainieren. |
lern_rate | Fließkomma | Diese Option legt die Lernrate des Optimierers fest, der zum Trainieren des Modells verwendet wird. Sie bestimmt die Schrittgröße, mit der der Optimierer die Modellparameter aktualisiert. Der Standardwert ist 0,0001. | Eine hohe Lernrate kann dazu führen, dass das Modell zu schnell zu einer suboptimalen Lösung konvergiert, während eine niedrige Lernrate zu einem langsamen Trainingsprozess führen kann, der zu einer schlechten Lösung konvergiert. Die Lernrate muss sorgfältig festgelegt werden, um diese Kompromisse auszugleichen. |
text_encoder_lr | Fließkomma | Diese Option legt speziell die Lernrate der Text-Encoder-Komponente des Modells fest. Wenn dieser Wert auf einen anderen Wert als learning_rate gesetzt wird, ermöglicht er eine spezielle Feinabstimmung des Text-Encoders. | Wenn text_encoder_lr auf einen anderen Wert als learning_rate gesetzt wird, kann dies zu einer Überanpassung des Text-Encoders führen und ist möglicherweise nicht gut auf neue Daten übertragbar. |
unet_lr | Fließkomma | Mit dieser Option wird speziell die Lernrate der UNet-Komponente des Modells festgelegt. Wenn dieser Wert auf einen anderen Wert als learning_rate gesetzt wird, ermöglicht er eine spezielle Feinabstimmung von UNet. | Wenn unet_lr auf einen anderen Wert als learning_rate gesetzt wird, kann dies zu einer Überanpassung an UNet führen und die Generalisierung auf neue Daten ist möglicherweise nicht gut. |
num_workers | Ganzzahl (math.) | Gibt die Anzahl der Arbeits-Threads zum Laden der Daten an. Eine höhere Anzahl von Worker-Threads kann das Laden von Daten und das Training beschleunigen, kann aber auch die Speichernutzung erhöhen. | Zu viele Worker-Threads können zu einem Speicherüberlauf führen und den Trainingsprozess verlangsamen. |
hartnäckige_Arbeiter | boolean | Legen Sie fest, ob persistente Worker-Threads verwendet werden sollen. Persistente Worker-Threads führen eine Warteschlange mit Datenproben, so dass die Daten effizienter geladen werden können. | Kann zu einer verminderten Systemleistung führen, insbesondere auf Systemen mit begrenzten Ressourcen wie Speicher oder Festplatten-E/A. |
los_größe | Ganzzahl (math.) | Gibt die Anzahl der in jedem Stapel enthaltenen Stichproben an. Größere Stapelgrößen können zu einem effizienteren Training führen, können aber auch die Speichernutzung erhöhen und die Konvergenz verlangsamen. | Eine zu große Stapelgröße kann zu einem Speicherüberlauf führen und den Trainingsprozess verlangsamen, während eine zu kleine Stapelgröße zu einer langsamen Konvergenz führen kann. |
num_epochs | Ganzzahl (math.) | Gibt an, wie viele vollständige Durchläufe mit den Trainingsdaten durchgeführt werden sollen. Mehr Durchläufe führen zu einem genaueren Modell, benötigen aber auch mehr Zeit für die Ausführung. | Längere Trainingszeiten können zu einer Überanpassung der Daten führen, wenn zu viele Runden verwendet werden. |
alle_Epochen_speichern | Ganzzahl (math.) | Geben Sie an, wie oft das Modell während des Trainings gespeichert werden soll. Die Einstellung 5 bedeutet zum Beispiel, dass das Modell alle 5 Runden gespeichert wird. | mehr Speicherplatz beanspruchen, da die Modelle häufiger gespeichert werden. |
shuffle_captions | boolean | Gibt an, ob die Trainingsdaten zwischen den Runden gemischt werden sollen. Das Mischen kann dazu beitragen, dass das Modell nicht in lokale Minima fällt, aber es kann auch dazu führen, dass das Training inkonsistent wird. | Wenn die Reihenfolge der Trainingsdaten signifikant ist, kann dies zu einem inkonsistenten Training führen. |
Token behalten | Ganzzahl (math.) | Die Anzahl der häufigsten Token in dem für das Training verwendeten Textkorpus. Token, die weniger häufig vorkommen als keep_tokens, werden durch ein unbekanntes Token ("") ersetzt. Kleinere Werte führen zu einem kleineren Vokabular, was den Speicherbedarf des Modells verringern kann, aber auch zu Informationsverlusten führen kann. | Wenn keep_tokens zu niedrig eingestellt ist, können Informationen verloren gehen. |
max_steps | Ganzzahl (math.) | Die maximale Anzahl von Schritten, die während des Trainings durchgeführt werden. Sobald das Modell den max_steps-Datenstapel sieht, wird das Training beendet. | Wenn max_steps zu niedrig eingestellt ist, wird das Modell möglicherweise nicht vollständig trainiert. Ist der Wert zu hoch, kann das Training sehr lange dauern. |
tag_vorkommen_txt_datei | string (Informatik) | Pfad zu einer Textdatei mit Informationen über das Auftreten von Bezeichnungen. Die Informationen über das Auftreten von Bezeichnungen werden verwendet, um die Verlustfunktion während des Trainings zu gewichten. | Wenn die Beschriftungen anscheinend keine Informationen enthalten oder nicht korrekt angegeben sind, wurde das Modell möglicherweise nicht korrekt trainiert. |
sort_tag_vorkommen_alphabetisch | richtig oder falsch | Wenn diese Option auf true gesetzt ist, werden die Tags in tag_occurrence_txt_file alphabetisch sortiert. Diese Option kann verwendet werden, um die Tag-Reihenfolge konsistent zu halten und sicherzustellen, dass ähnliche Tags zusammen gruppiert werden. | K.A. |
train_resolution | Integer-Wert | Dieser Wert bestimmt die Auflösung des Trainingsbildes. Höhere Auflösungen führen zu detaillierteren Bildern, erfordern aber auch mehr Speicher- und Rechenressourcen. | Eine Erhöhung der Auflösung kann die Trainingszeit und den Speicherbedarf erheblich erhöhen, insbesondere wenn die Trainingsdaten groß sind. |
min_bucket_resolution | Integer-Wert | Dieser Wert bestimmt die Mindestgröße des für das Training verwendeten Buckets. Eine kleinere Bucket-Größe kann zu einem schnelleren Trainingsprozess führen, kann aber auch eine Überanpassung verursachen oder die Qualität der Ergebnisse verringern. | Eine zu starke Verkleinerung der Schaufelgröße kann zu einem weniger effizienten Training und einer geringeren Qualität der Ergebnisse führen. |
max_bucket_resolution | Ganzzahl (math.) | Gibt die maximale Bildauflösung der Trainingsdaten an. Wenn die Auflösung der Trainingsdaten größer als max_bucket_resolution ist, werden sie heruntergerechnet. | Ein hoher Wert für max_bucket_resolution kann zu einer längeren Trainingszeit und einem höheren Speicherverbrauch führen, während ein niedriger Wert die Qualität des erzeugten Bildes verringern kann. |
lora_model_für_lebenslauf | string (Informatik) | Gibt einen Pfad zu einem bereits trainierten LoRA-Modell an, das verwendet wird, um das Training von einem früheren Kontrollpunkt aus wieder aufzunehmen. | Die Wiederaufnahme des Trainings mit einem bereits trainierten Modell kann zu einer Überanpassung führen, wenn sich die neuen Trainingsdaten erheblich von den ursprünglichen Trainingsdaten unterscheiden. |
speichern_Status | boolean | Gibt an, ob der Trainingszustand nach jeder Runde gespeichert werden soll. Bei der Einstellung True wird der Trainingszustand in der Datei lora_model_for_resume gespeichert. | Das häufige Speichern von Trainingszuständen kann zu längeren Trainingszeiten und höherem Festplattenverbrauch führen. |
load_previous_save_state | richtig oder falsch | Gibt an, ob der zuvor gespeicherte Zustand des Modells während des Trainings geladen werden soll. Bei True wird das Training mit dem zuvor gespeicherten Zustand fortgesetzt. Bei False beginnt das Training bei Null. | Wenn ein zuvor gespeicherter Status nicht verfügbar oder beschädigt ist, kann das Training nicht wiederhergestellt werden, und das Training beginnt von vorne, was zu längeren Trainingszeiten und Leistungseinbußen führen kann. |
ausbildung_kommentar | string (Informatik) | Gibt den Kommentar an, der dem gespeicherten Modellnamen hinzugefügt wird. Dies kann verwendet werden, um zwischen verschiedenen Modellen zu unterscheiden, die mit unterschiedlichen Einstellungen oder Parametern trainiert wurden. | nicht haben |
unet_only | richtig oder falsch | Gibt an, ob nur die UNet-Komponenten des Modells trainiert werden sollen. Bei der Einstellung True wird nur die UNet-Komponente des Modells trainiert und die Text-Encoder-Komponente wird nicht trainiert. Bei False werden sowohl die UNet- als auch die Text-Encoder-Komponenten des Modells trainiert. | Wenn nur die UNet-Komponente des Modells trainiert wird, kann dies zu einer geringeren Leistung führen, als wenn beide Komponenten gleichzeitig trainiert werden, da die Text-Encoder-Komponente ein wichtiger Teil des Modells ist und dazu beiträgt, Textinformationen in den Trainingsprozess zu kodieren. |
nur text_nur | richtig oder falsch | Legt fest, ob das Modell nur auf Text oder sowohl auf Text als auch auf Bilder trainiert werden soll. Die Einstellung True führt zu einem schnelleren Training, aber zu einer schlechteren Qualität der Bilderzeugung. Die Einstellung False führt zu einem langsameren Training, aber zu einer höheren Qualität der Bilderzeugung. | Bei der Einstellung "True" ist das Bild nicht so genau und detailliert wie bei der Einstellung "False". |
reg_img_ordner | string (Informatik) | Der Pfad zu dem für das Training verwendeten Bildverzeichnis. | Diese Option ist nur relevant, wenn text_only auf False gesetzt ist. Wenn keine Bilder angegeben werden, wird das Modell nur auf Text trainiert und es werden keine Bilder erzeugt. |
clip_skip | richtig oder falsch | Legt fest, ob das Modell abgeschnittene Bilder in den Trainingsdaten überspringen soll. Abgeschnittene Bilder sind Bilder, die entweder zu klein oder zu groß im Vergleich zu train_resolution sind. | Wenn diese Option auf True gesetzt ist, kann das Modell möglicherweise nicht von einigen Bildern in den Trainingsdaten lernen. Bei "False" kann das Training länger dauern, weil das Modell alle Bilder verarbeiten muss, auch die bearbeiteten. |
test_saatgut | Ganzzahl (math.) | Geben Sie einen Zufallswert für die Erzeugung und Auswertung von Testdaten an. Durch die Festlegung des Seeds wird sichergestellt, dass bei jeder Ausführung des Skripts die gleichen Testdaten erzeugt werden. | Unterschiedliche Seeds können zu unterschiedlichen Testdaten und Bewertungsergebnissen führen, was einen Leistungsvergleich zwischen den Läufen erschwert. |
vor_Verlust_Gewicht | Fließkomma | Geben Sie die Gewichtung des Prior Loss Terms in der Gesamtverlustberechnung an. Der Prior-Loss-Term wird verwendet, um das Modell zu veranlassen, Ausgaben zu erzeugen, die der Prior-Verteilung der Trainingsdaten ähnlich sind. | Eine zu hohe Gewichtung kann zu einem Ergebnis führen, das dem vorherigen zu ähnlich ist, was die Kreativität des Modells einschränkt. Eine zu niedrige Gewichtung kann zu einer Ausgabe führen, die zu weit von der vorherigen entfernt und nicht kohärent genug ist. |
gradient_checkpointing | boolean | Gibt an, ob Gradientenprüfpunkte verwendet werden sollen, um die Speichernutzung während des Trainings zu reduzieren. Bei der Gradientenprüfung werden die Aktivierungen während der Backpropagation selektiv gespeichert und neu geladen, was die Speichernutzung auf Kosten einer höheren Rechenzeit reduziert. | Die Verwendung von Gradienten-Kontrollpunkten kann den Trainingsprozess verlangsamen und ist für kleine Modelle oder Geräte mit ausreichendem Speicherplatz möglicherweise nicht notwendig. |
gradient_acc_steps | Ganzzahl (math.) | Gibt die Anzahl der Schritte für die Gradientenakkumulation während des Trainings an. Eine Erhöhung dieses Wertes verringert die Speichernutzung und erhöht die Stabilität des Trainings. | Höhere Werte von gradient_acc_steps erhöhen die Anzahl der Operationen und können den Trainingsprozess verlangsamen. |
gemischt_präzise | boolean | Gibt an, ob das Training mit gemischter Genauigkeit verwendet werden soll, bei dem Datentypen mit geringer Genauigkeit verwendet werden, um das Training zu beschleunigen. | Ein Training mit gemischter Präzision kann zu einer geringeren Genauigkeit und zu einem instabilen Training führen. |
speichern_präzision | Fließkomma | Gibt die Genauigkeit an, die beim Speichern von Modellgewichten verwendet werden soll. Normalerweise auf 32 oder 16 eingestellt, je nach der beim Training verwendeten Genauigkeit. | Niedrigere Genauigkeitswerte können zu Informationsverlusten beim Speichern von Modellgewichten führen, was eine geringere Genauigkeit zur Folge hat. |
speichern_als | string (Informatik) | Gibt das Dateiformat an, in dem das Trainingsmodell gespeichert werden soll. Unterstützte Formate sind: ckpt, safetensors, pt, bin. | Das Dateiformat sollte dem Typ des AI-Kunstmodells für Stabile Diffusion entsprechen, für das das LoRA-Modell verwendet werden soll. |
beschriftung_erweiterung | string (Informatik) | Gibt die Erweiterung der Textdatei an, die die Kopfzeilen der Trainingsdaten enthält. | Die Erweiterung muss mit der tatsächlichen Dateierweiterung der Titeldatei übereinstimmen. |
max_clip_token_length | Ganzzahl (math.) | Geben Sie die maximale Anzahl von Token an, die ein einzelner Titel enthalten darf. Titel, die diese Länge überschreiten, werden beim Training übersprungen. | Die Einstellung höherer Werte kann den Speicherverbrauch während des Trainings erhöhen. Die Einstellung eines niedrigeren Wertes kann zum Verlust wichtiger Informationen in der Kopfzeile führen. |
Eimer | Liste von Ganzzahlen | Geben Sie die Größe des Bucket-Algorithmus an. Wenn zum Beispiel buckets auf [5,10,15] eingestellt ist, werden die Daten in drei Buckets aufgeteilt, wobei die Daten mit der Länge von 5 Token in einem Bucket, die Daten mit der Länge von 10 Token in einem anderen Bucket und die Daten mit der Länge von 15 Token im dritten Bucket liegen. | Die Anzahl der Bereiche und die Größe der Bereiche müssen sorgfältig ausgewählt werden, um gute Ergebnisse zu erzielen. Wenn die Anzahl der Bereiche zu klein ist, kann das Modell nicht gut funktionieren, während eine zu große Anzahl von Bereichen zu einer Überanpassung des Modells führen kann. |
xformers | Stringliste | Geben Sie den Transformator an, der beim Training verwendet werden soll. Der Transformator kann verwendet werden, um Datenverbesserungstechniken wie zufälliges Beschneiden, Spiegeln, Drehen usw. anzuwenden. | Die Wahl des Transformators kann die Leistung des Modells stark beeinflussen, daher ist es wichtig, den für die jeweilige Aufgabe am besten geeigneten Transformator zu wählen. |
verwenden_8bit_adam | boolean | Gibt an, ob der 8-Bit-Adam-Optimierer verwendet werden soll. Diese Option kann verwendet werden, um den Speicherbedarf für den Trainingsprozess zu reduzieren. | Wenn diese Option auf True gesetzt ist, wird der Speicherbedarf für den Trainingsprozess reduziert, aber das Training kann langsamer sein und das Modell kann weniger genau sein. |
cache_latents | boolean | Bei der Einstellung True werden potenzielle Werte der Trainingsdaten zwischengespeichert, um das Training zu beschleunigen. Dies kann die Zeit für das Training des Modells verkürzen, kann aber auch mehr Speicherplatz beanspruchen und die Zeit bis zum Start des Trainings erhöhen. | Erhöhte Speichernutzung und langsamere Startzeiten. |
farbe_aug | boolean | Wenn diese Option auf True gesetzt ist, wird während des Trainings eine Farbverbesserung durchgeführt. Dies kann die Vielfalt der Trainingsdaten erhöhen, kann aber auch das Training verlangsamen. | Die Trainingszeit verlangsamt sich. |
flip_aug | boolean | Wenn diese Option auf True gesetzt ist, wird während des Trainings eine Flip-Erweiterung durchgeführt. Dies kann die Vielfalt der Trainingsdaten erhöhen, kann aber auch das Training verlangsamen. | Die Trainingszeit verlangsamt sich. |
random_crop | Richtig/Falsch | Gibt an, ob das Trainingsbild zufällig beschnitten werden soll. Bei der Einstellung "True" wird das Trainingsbild vor der Eingabe in das Modell zufällig auf die angegebene Größe beschnitten. | Die Verwendung von Zufallsausschnitten erhöht die Vielfalt der Trainingsdaten, erhöht aber auch die Rechenkosten für das Training und kann den Trainingsprozess verlangsamen. |
vae | Richtig/Falsch | Gibt an, ob ein Variations-Autocoder (VAE) als Backbone des Modells verwendet werden soll. Bei der Einstellung True wird das Modell als VAE trainiert. | Die Verwendung von VAE kann zu einer flexibleren Darstellung der Daten führen, aber sie kann auch das Training erschweren und mehr Feinabstimmung erfordern. |
keine_meta | Richtig/Falsch | Gibt an, ob Metadaten (z. B. Kategoriebezeichnungen, Attribute usw.) vom Trainingsprozess ausgeschlossen werden sollen. Bei der Einstellung True hat das Modell während des Trainings keinen Zugriff auf Metadaten. | Die Nichtberücksichtigung von Metadaten kann den Trainingsprozess zwar vereinfachen, aber auch zu einem Modell von geringerer Qualität führen, das die zusätzlichen Informationen, die die Metadaten liefern, nicht nutzt. |
log_dir | string (Informatik) | Der Pfad zu dem Verzeichnis, in dem die Trainingsprotokolldateien gespeichert werden. | Wenn das Verzeichnis bereits existiert und nicht leer ist, kann das Training frühere Protokolle, die in diesem Verzeichnis gespeichert sind, überschreiben, was zu Datenverlust führt. |
bucket_reso_steps | Ganzzahl (math.) | Erhöhen Sie die Anzahl der Schritte für die Bildauflösung. Die Bildauflösung beginnt bei max_bucket_resolution und erhöht sich nach jedem Schritt um den Faktor 2. | Wenn Sie diesen Wert zu hoch einstellen, kann es zu Speicherfehlern und längeren Trainingszeiten kommen, da die Bildgröße bei jedem Schritt zunimmt. Ein zu niedriger Wert kann zu einer schlechteren Bildqualität führen. |
bucket_no_upscale | boolean | Gibt an, ob die Vergrößerung der Bildauflösung über die Originalgröße hinaus begrenzt werden soll. | Wenn diese Option auf True gesetzt ist, wird die Bildauflösung nicht über die ursprüngliche Größe hinaus erhöht, was zu einer geringeren Bildqualität führen kann. |
v2 | richtig oder falsch | Diese Einstellung gibt an, ob die Version 2 der Modellarchitektur verwendet wird. | Die Verwendung verschiedener Versionen der Modellarchitektur kann die Qualität und Leistung der erzeugten Kunstwerke verändern. Daher ist es wichtig, zu experimentieren und die Ergebnisse zu vergleichen, um die beste Option für eine bestimmte Aufgabe zu ermitteln. |
v_parametrisierung | spectral_norm", "instance_norm" oder "batch_norm". | Diese Einstellung bestimmt, wie die Parameter des Modells während des Trainings normalisiert werden. Spektrale Normalisierung, Instanznormalisierung und Stapelnormalisierung sind verschiedene Ansätze zur Vermeidung von Überanpassung, die jeweils ihre eigenen Kompromisse in Bezug auf Rechenkosten und Leistung aufweisen. | Die Wahl der falschen Normalisierungsmethode kann sich negativ auf die Leistung des Modells auswirken. Daher ist es wichtig, verschiedene Optionen auszuprobieren, um festzustellen, welche für eine bestimmte Aufgabe am besten geeignet ist. |
Lassen Sie ChatGPT alle LoRA-Parameter interpretieren
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " Lassen Sie ChatGPT alle LoRA-Parameter interpretieren
Empfohlen
- Warum LISP-Sprachaufforderungen SVG-Vektorgrafiken erzeugen
- Code-Abruflogik, die in der offiziellen Cursor-Sicherheitsdokumentation offengelegt wird
- Strukturierte Datenausgabeverfahren für große Modelle: Eine ausgewählte Liste von LLM JSON-Ressourcen
- AI Conversion Rate Optimisation: Wie AI die CRO-Strategien verändert
- Popular Science: Was ist ein großes Sprachmodell-Kontextfenster
- PDL: Deklarative Prompted Word Programmiersprache
- Karriereratgeber KI: Karriere in der Künstlichen Intelligenz machen
- ToolGen: Vereinheitlichter Werkzeugabruf und -aufruf durch Generierung