Prompt Jailbreak

Insgesamt 82 Artikel
Prompt越狱手册:突破AI限制的提示词设计指南

Prompt Jailbreak Manual: Ein Leitfaden zum Entwerfen von Prompt-Wörtern, die KI-Beschränkungen durchbrechen

Allgemeine Einführung Prompt Jailbreak Manual ist ein Open-Source-Projekt, das auf GitHub gehostet und vom Acmesec-Team gepflegt wird. Es konzentriert sich darauf, Nutzern beizubringen, wie man die Grenzen des KI-Makromodells durch gut gestaltete Prompt-Wörter (Prompt) durchbricht, und hilft Technikbegeisterten und Sicherheitsforschern...
vor 5 Monaten
01.4K
Agentic Security:开源的LLM漏洞扫描工具,提供全面的模糊测试和攻击技术

Agentic Security: quelloffenes LLM-Schwachstellen-Scan-Tool, das umfassende Fuzz-Tests und Angriffstechniken bietet

Allgemeine Einführung Agentic Security ist ein quelloffenes LLM (Large Language Model) Schwachstellen-Scan-Tool, das Entwicklern und Sicherheitsexperten umfassende Fuzz-Tests und Angriffstechniken bietet. Das Tool unterstützt benutzerdefinierte Regelsätze oder agentenbasierte Angriffe, ist in der Lage LLM AP zu integrieren...
vor 6 Monaten
01.9K
揭示 AI 过滤器中的安全漏洞:使用字符代码绕过限制的深入研究

Aufdeckung von Sicherheitslücken in KI-Filtern: eine eingehende Untersuchung der Verwendung von Zeichencode zur Umgehung von Beschränkungen

Einleitung Wie viele andere auch, waren meine Nachrichten-Tweets in den letzten Tagen voll mit Nachrichten, Lob, Beschwerden und Spekulationen über das große Sprachmodell DeepSeek-R1 aus China, das letzte Woche veröffentlicht wurde. Das Modell selbst wird gegen öffentliche Plattformen wie OpenAI, Meta...
vor 6 Monaten
02.7K
Break The AI:人工智能越狱挑战游戏,提升技能,参与竞赛

Break The AI: Artificial Intelligence Jailbreak Challenge Game, verbessere deine Fähigkeiten und nimm an Wettbewerben teil

Allgemeine Einführung Break The AI ist eine Plattform, die sich auf KI-Herausforderungen und -Wettbewerbe konzentriert, um Nutzern zu helfen, ihre KI-Fähigkeiten zu verbessern und an einer Vielzahl von lustigen und herausfordernden Aufgaben teilzunehmen. Die Seite bietet eine interaktive Gemeinschaft für KI-Enthusiasten, Studenten und Fachleute, wo...
vor 8 Monaten
02.2K
重磅:一键破解任意大模型系统提示词的万能指令

Schwergewicht: ein Schlüssel zum Knacken jedes großen Modellsystems Eingabeaufforderung Wort Universalbefehl

Beim Erlernen der technischen Ideen vieler KI-Anwendungen sind die von ihnen geschriebenen Stichworte oft ein wichtiger Teil der Anwendung, und mein kleiner Bruder und ich haben unzählige Befehle zum Knacken von Stichwörtern auf die harte Tour gelernt, und müssen oft eine oder mehrere Befragungsrunden auf der Grundlage verschiedener großer Modellmerkmale durchführen, um das dahinter stehende Stichwort zu finden. Jetzt wird das Problem einfacher, hier ist dies...
vor 6 Monaten
02.4K
主流大模型越狱指令合集

Mainstream Big Model Jailbreak Command Collection

Jailbreaking bei großen Modellen ist eine interessante Technik, ähnlich wie SQL-Injection, die es großen Modellen ermöglicht, Prompts zu "überlaufen", indem sie Prompts einspeisen. Mit dem Jailbreaking eines großen Modells werden drei Ziele verfolgt: Erlernen der besten Prompt-Anweisungen, die von anderen entwickelt wurden, Überschreiten der ethischen Beschränkungen des großen Modells und Zugang zu den...
vor 8 Monaten
03.1K