Aprendizagem pessoal com IA
e orientação prática
豆包Marscode1
Total de 82 artigos

Tags: prompt jailbreak

Prompt越狱手册:突破AI限制的提示词设计指南-首席AI分享圈

Manual do Prompt Jailbreak: um guia para criar palavras de prompt que rompem as limitações da IA

Introdução geral O Prompt Jailbreak Manual é um projeto de código aberto hospedado no GitHub e mantido pela equipe da Acmesec. Ele se concentra em ensinar aos usuários como romper os limites do macromodelo de IA por meio de palavras de alerta bem projetadas (Prompt), ajudando entusiastas da tecnologia e pesquisadores de segurança a explorar os recursos potenciais da IA. O projeto é baseado em ...

只需输入一个表情符号就会让 DeepSeek-R1 疯掉...-首席AI分享圈

O simples fato de digitar um emoji deixará o DeepSeek-R1 louco...

😊 😊‍‍‍‍‍ ‍‍‍‍‍‍‍‍‍‍‍‍‍ ‍‍‍‍‍‍‍ ‍‍‍‍‍‍‍‍‍‍ ‍‍‍‍‍‍‍‍‍‍‍‍‍ Os dois emoticons acima têm a mesma aparência. Se você copiar o segundo emoticon para o site do DeepSeek-R1, verá que o processo de raciocínio é extremamente longo e, desta vez, levou 239 segundos, o que é bastante curto... &nb...

Agentic Security:开源的LLM漏洞扫描工具,提供全面的模糊测试和攻击技术-首席AI分享圈

Agentic Security: ferramenta de varredura de vulnerabilidades LLM de código aberto que fornece técnicas de ataque e testes de fuzz abrangentes

Introdução geral O Agentic Security é uma ferramenta de código aberto de varredura de vulnerabilidades do LLM (Large Language Model) projetada para fornecer aos desenvolvedores e profissionais de segurança técnicas abrangentes de teste e ataque de fuzz. A ferramenta é compatível com conjuntos de regras personalizados ou ataques baseados em agentes, é capaz de integrar APIs LLM para testes de estresse e oferece...

揭示 AI 过滤器中的安全漏洞:使用字符代码绕过限制的深入研究-首席AI分享圈

Descobrindo falhas de segurança em filtros de IA: um estudo aprofundado do uso de código de caracteres para contornar restrições

Introdução Como muitas outras pessoas, nos últimos dias meus tweets de notícias foram preenchidos com notícias, elogios, reclamações e especulações sobre o modelo de linguagem grande DeepSeek-R1, fabricado na China, que foi lançado na semana passada. O modelo em si está sendo confrontado com alguns dos melhores modelos de inferência da OpenAI, Meta e outros...

Break The AI:人工智能越狱挑战游戏,提升技能,参与竞赛-首席AI分享圈

Break The AI: Jogo de Desafio Jailbreak de Inteligência Artificial, aprimore suas habilidades e participe de competições

Introdução geral O Break The AI é uma plataforma focada em desafios e competições de IA projetada para ajudar os usuários a melhorar suas habilidades de IA e participar de uma variedade de tarefas divertidas e desafiadoras. O site oferece uma comunidade interativa para entusiastas, estudantes e profissionais de IA, onde os usuários podem aprender as últimas...

重磅:一键破解任意大模型系统提示词的万能指令-首席AI分享圈

Heavyweight: uma chave para decifrar qualquer comando universal de palavra-chave de sistema de modelo grande

Ao aprender as ideias de engenharia de muitos aplicativos de IA, as palavras-chave que eles escrevem costumam ser uma parte importante do aplicativo, e eu, meu irmãozinho, aprendi inúmeros comandos de quebra de palavras-chave da maneira mais difícil, e muitas vezes tenho que fazer uma ou mais rodadas de perguntas com base nas características de diferentes modelos grandes antes de encontrar a palavra-chave por trás disso. Agora o problema ficou mais fácil...

pt_BRPortuguês do Brasil