Jailbreaking bei großen Modellen ist eine interessante Technik, ähnlich wie SQL-Injection, die es großen Modellen ermöglicht, Prompts zu "überlaufen", indem sie Prompts einspeisen. Mit dem Jailbreaking eines großen Modells werden drei Ziele verfolgt: Erlernen der besten Prompt-Anweisungen, die von anderen entwickelt wurden, Überschreiten der ethischen Beschränkungen des großen Modells und Zugang zu den...