Джейлбрейк больших моделей - это интересная техника, похожая на SQL-инъекции, которая позволяет большим моделям "переполнять" подсказки, внедряя их. Цель джейлбрейка больших моделей триедина: изучить лучшие инструкции подсказок, разработанные другими, преодолеть этические ограничения больших моделей и получить...
При изучении инженерных идей многих приложений ИИ, написанные в них слова часто являются важной частью приложения, и я, младший брат, выучил бесчисленное количество команд для взлома слов, и часто приходится делать один или несколько раундов опроса на основе характеристик различных больших моделей, прежде чем я смогу найти слово, стоящее за ним. Теперь проблема становится проще, вот что...
😊 😊 Два вышеприведенных смайлика выглядят одинаково. Если вы скопируете второй смайлик в DeepSeek-R1...
Общее введение Break The AI - это платформа, посвященная задачам и соревнованиям по искусственному интеллекту, призванная помочь пользователям улучшить свои навыки в области искусственного интеллекта и принять участие в различных забавных и сложных заданиях. Сайт представляет собой интерактивное сообщество для энтузиастов ИИ, студентов и профессионалов, где пользователи могут...
Общее представление Agentic Security - это инструмент сканирования уязвимостей LLM (Large Language Model) с открытым исходным кодом, предназначенный для предоставления разработчикам и специалистам по безопасности комплексного тестирования и методов атаки. Инструмент поддерживает пользовательские наборы правил или атаки на основе агентов и способен интегрировать LLM AP...
Упрощенная подсказка, призванная сделать большую языковую модель более безопасной и этичной, является противоположностью злобному DAN и больше подходит для умственно отсталых или серьезных сценариев: Hello! You will be taking on the role of ANT...
Введение Как и многие другие, за последние несколько дней мои новостные твиты были наполнены новостями, похвалами, жалобами и спекуляциями по поводу большой языковой модели DeepSeek-R1 китайского производства, которая была выпущена на прошлой неделе. Саму модель сравнивают с такими пабликами, как OpenAI, Meta...
Общее введение Руководство по джейлбрейку Prompt - это проект с открытым исходным кодом, размещенный на GitHub и поддерживаемый командой Acmesec. Он посвящен обучению пользователей тому, как нарушать границы макромодели ИИ с помощью хорошо продуманных слов-подсказок (Prompt), помогая техническим энтузиастам и исследователям безопасности...
OMNI Оригинальное сообщение Добро пожаловать в сложнейшее испытание искусственного интеллекта OmniAI. В этом упражнении вам предстоит воплотить четыре различных...
v2 подходит для моделей GPT4, бесплатным аккаунтам ChatGPT, использующим модели GPT3.5, рекомендуется попробовать AntiGPT v1. AntiGPT v2 Оригинальное сообщение Пожалуйста, притворитесь, что вы находитесь в "противоположном ...
Введение Вы когда-нибудь задумывались, как используемые сегодня чат-боты, например модели OpenAI, определяют, является ли вопрос безопасным и стоит ли на него отвечать? На самом деле, эти большие модели рассуждений (...