AI Personal Learning
und praktische Anleitung
讯飞绘镜
Insgesamt 82 Artikel

Tags: prompt jailbreak

Prompt越狱手册:突破AI限制的提示词设计指南-首席AI分享圈

Prompt Jailbreak Manual: Ein Leitfaden zum Entwerfen von Prompt-Wörtern, die KI-Beschränkungen durchbrechen

Allgemeine Einführung Prompt Jailbreak Manual ist ein Open-Source-Projekt, das auf GitHub gehostet und vom Acmesec-Team gepflegt wird. Es konzentriert sich darauf, Nutzern beizubringen, wie man die Grenzen des KI-Makromodells durch gut gestaltete Prompt-Wörter (Prompt) durchbricht, und hilft Technologie-Enthusiasten und Sicherheitsforschern, die potenziellen Fähigkeiten der KI zu erkunden. Das Projekt basiert auf ...

只需输入一个表情符号就会让 DeepSeek-R1 疯掉...-首席AI分享圈

Schon das Eintippen eines Emoji macht DeepSeek-R1 verrückt...

😊 😊‍‍‍‍‍ ‍‍‍‍‍‍‍‍‍‍‍‍‍ ‍‍‍‍‍‍‍ ‍‍‍‍‍‍‍‍‍‍ ‍‍‍‍‍‍‍‍‍‍‍‍‍ Die beiden obigen Emoticons sehen gleich aus. Wenn Sie das zweite Emoticon auf die DeepSeek-R1-Website kopieren, werden Sie feststellen, dass der Denkprozess extrem lang ist, und dieses Mal dauerte es 239 Sekunden, was ziemlich kurz ist... &nb...

Agentic Security:开源的LLM漏洞扫描工具,提供全面的模糊测试和攻击技术-首席AI分享圈

Agentic Security: quelloffenes LLM-Schwachstellen-Scan-Tool, das umfassende Fuzz-Tests und Angriffstechniken bietet

Allgemeine Einführung Agentic Security ist ein quelloffenes LLM (Large Language Model) Schwachstellen-Scan-Tool, das Entwicklern und Sicherheitsexperten umfassende Fuzz-Tests und Angriffstechniken bietet. Das Tool unterstützt benutzerdefinierte Regelsätze oder agentenbasierte Angriffe, ist in der Lage, LLM-APIs für Stresstests zu integrieren, und bietet...

揭示 AI 过滤器中的安全漏洞:使用字符代码绕过限制的深入研究-首席AI分享圈

Aufdeckung von Sicherheitslücken in KI-Filtern: eine eingehende Untersuchung der Verwendung von Zeichencode zur Umgehung von Beschränkungen

Einleitung Wie viele andere auch, waren meine Nachrichten-Tweets in den letzten Tagen voll von Nachrichten, Lob, Beschwerden und Spekulationen über das große Sprachmodell DeepSeek-R1 aus China, das letzte Woche veröffentlicht wurde. Das Modell selbst wird gegen einige der besten Inferenzmodelle von OpenAI, Meta und anderen...

Break The AI:人工智能越狱挑战游戏,提升技能,参与竞赛-首席AI分享圈

Break The AI: Artificial Intelligence Jailbreak Challenge Game, verbessere deine Fähigkeiten und nimm an Wettbewerben teil

Allgemeine Einführung Break The AI ist eine Plattform, die sich auf KI-Herausforderungen und -Wettbewerbe konzentriert, um Nutzern zu helfen, ihre KI-Fähigkeiten zu verbessern und an einer Vielzahl von lustigen und herausfordernden Aufgaben teilzunehmen. Die Website bietet eine interaktive Gemeinschaft für KI-Enthusiasten, Studenten und Fachleute, in der die Nutzer die neuesten KI...

重磅:一键破解任意大模型系统提示词的万能指令-首席AI分享圈

Schwergewicht: ein Schlüssel zum Knacken jedes großen Modellsystems Eingabeaufforderung Wort Universalbefehl

Beim Erlernen der technischen Ideen vieler KI-Anwendungen sind die von ihnen geschriebenen Stichworte oft ein wichtiger Teil der Anwendung, und mein kleiner Bruder und ich haben unzählige Befehle zum Knacken von Stichwörtern auf die harte Tour gelernt, und müssen oft eine oder mehrere Befragungsrunden auf der Grundlage verschiedener großer Modellmerkmale durchführen, um das dahinter stehende Stichwort zu finden. Jetzt wird das Problem einfacher, hier ist dies...

主流大模型越狱指令合集-首席AI分享圈

Mainstream Big Model Jailbreak Command Collection

Big Model Jailbreaking ist eine interessante Technik, die der SQL-Injektion ähnelt, bei der man eine Eingabeaufforderung injizieren kann, um das Big Model zum "Überlaufen" der Eingabeaufforderung zu bringen. Der Zweck des Big Model Jailbreaking ist ein dreifacher: von den guten Prompt-Befehlen anderer Leute zu lernen, die ethischen Grenzen des Big Model zu überschreiten und umfassendere Antworten zu erhalten ...

de_DEDeutsch