プロンプト脱獄

全82記事
主流大模型越狱指令合集

主流ビッグモデル脱獄コマンド集

大型モデルの脱獄は、SQLインジェクションに似た興味深いテクニックであり、大型モデルにプロンプトを注入することでプロンプトを「オーバーフロー」させることができる。 ビッグモデル脱獄の目的は3つある:他の人が設計した最良のプロンプト命令を学ぶこと、ビッグモデルの倫理的制約を越えること、そして...
8ヶ月前
03.5K
重磅:一键破解任意大模型系统提示词的万能指令

ヘビー級:1つのキーでどんな大型モデルシステムもクラックできる プロンプト・ワード・ユニバーサル・コマンド

多くのAIアプリケーションのエンジニアリングのアイデアを学ぶとき、彼らが書くキューワードはしばしばアプリケーションの重要な部分であり、弟の私は数え切れないほどのキューワードクラッキングコマンドを苦労して学んだ。 さて、問題はもっと簡単だ。
6ヶ月前
03.3K
Break The AI:人工智能越狱挑战游戏,提升技能,参与竞赛

ブレイク・ザ・AI:人工知能脱獄チャレンジゲーム、スキルアップして大会に参加しよう

一般的な紹介 Break The AIは、ユーザーがAIスキルを向上させ、様々な楽しくやりがいのあるタスクに参加できるように設計された、AIチャレンジとコンペティションに焦点を当てたプラットフォームです。このサイトは、AI愛好家、学生、専門家のためのインタラクティブなコミュニティを提供し、ユーザーが...
8ヶ月前
03K
Agentic Security:开源的LLM漏洞扫描工具,提供全面的模糊测试和攻击技术

Agentic Security: オープンソースのLLM脆弱性スキャンツール。

概要 Agentic Securityは、開発者やセキュリティ専門家に包括的なファズテストと攻撃技術を提供するために設計されたオープンソースのLLM(Large Language Model)脆弱性スキャンツールです。このツールは、カスタムルールセットやエージェントベースの攻撃をサポートし、LLM APを統合することができます。
6ヶ月前
02.6K
Prompt越狱手册:突破AI限制的提示词设计指南

プロンプト脱獄マニュアル:AIの制限を破るプロンプトワード設計ガイド

概要 Prompt Jailbreak ManualはGitHubでホストされ、Acmesecチームによって維持されているオープンソースプロジェクトです。うまく設計されたプロンプトワード(Prompt)を通して、AIマクロモデルの限界を破る方法をユーザーに教えることに焦点を当て、技術愛好家やセキュリティ研究者を支援しています。
5ヶ月前
02.4K
H-CoT 如何“劫持”大模型推理过程,突破安全防线?

H-CoTはどのようにビッグモデルの推論プロセスを "ハイジャック "し、セキュリティ防御を突破するのか?

はじめに OpenAIのモデルのような、今日私たちが使っているチャットボットが、どのようにして質問が安全で、答えるべきかどうかを判断しているのか、不思議に思ったことはありませんか? 実際、これらの大規模推論モデル(...
5ヶ月前
02K