Prompt Jailbreak

Total de 82 artigos
Prompt越狱手册:突破AI限制的提示词设计指南

Manual do Prompt Jailbreak: um guia para criar palavras de prompt que rompem as limitações da IA

Introdução geral O Prompt Jailbreak Manual é um projeto de código aberto hospedado no GitHub e mantido pela equipe da Acmesec. Ele se concentra em ensinar aos usuários como romper os limites do macromodelo de IA por meio de palavras de prompt bem projetadas (Prompt), ajudando entusiastas da tecnologia e pesquisadores de segurança...
5 meses atrás
01.2K
Agentic Security:开源的LLM漏洞扫描工具,提供全面的模糊测试和攻击技术

Agentic Security: ferramenta de varredura de vulnerabilidades LLM de código aberto que fornece técnicas de ataque e testes de fuzz abrangentes

Introdução geral O Agentic Security é uma ferramenta de código aberto de varredura de vulnerabilidades do LLM (Large Language Model) projetada para fornecer aos desenvolvedores e profissionais de segurança técnicas abrangentes de teste e ataque de fuzz. A ferramenta é compatível com conjuntos de regras personalizadas ou ataques baseados em agentes e é capaz de integrar o LLM AP...
6 meses atrás
01.9K
揭示 AI 过滤器中的安全漏洞:使用字符代码绕过限制的深入研究

Descobrindo falhas de segurança em filtros de IA: um estudo aprofundado do uso de código de caracteres para contornar restrições

Introdução Como muitas outras pessoas, nos últimos dias meus tweets de notícias foram preenchidos com notícias, elogios, reclamações e especulações sobre o modelo de linguagem grande DeepSeek-R1, fabricado na China, que foi lançado na semana passada. O modelo em si está sendo confrontado com públicos como OpenAI, Meta...
6 meses atrás
02.6K
Break The AI:人工智能越狱挑战游戏,提升技能,参与竞赛

Break The AI: Jogo de Desafio Jailbreak de Inteligência Artificial, aprimore suas habilidades e participe de competições

Introdução geral Break The AI é uma plataforma focada em desafios e competições de IA projetada para ajudar os usuários a melhorar suas habilidades de IA e participar de uma variedade de tarefas divertidas e desafiadoras. O site oferece uma comunidade interativa para entusiastas, estudantes e profissionais de IA, onde os usuários podem...
8 meses atrás
02.1K
重磅:一键破解任意大模型系统提示词的万能指令

Heavyweight: uma chave para decifrar qualquer comando universal de palavra-chave de sistema de modelo grande

Ao aprender as ideias de engenharia de muitos aplicativos de IA, as palavras-chave que eles escrevem costumam ser uma parte importante do aplicativo, e eu, meu irmãozinho, aprendi inúmeros comandos de quebra de palavras-chave da maneira mais difícil, e muitas vezes tenho que fazer uma ou mais rodadas de perguntas com base nas características de diferentes modelos grandes antes de encontrar a palavra-chave por trás disso. Agora o problema ficou mais fácil...
6 meses atrás
02.4K
主流大模型越狱指令合集

Coleção de comandos de quebra de cadeia do modelo grande convencional

O jailbreak de grandes modelos é uma técnica interessante, semelhante à injeção de SQL, que permite que grandes modelos "transbordem" prompts injetando prompts. O objetivo do jailbreak de grandes modelos é triplo: aprender as melhores instruções de prompts projetadas por outros, ultrapassar as restrições éticas do grande modelo e obter acesso às informações do grande modelo...
8 meses atrás
03.1K