El jailbreaking de grandes modelos es una técnica interesante, similar a la inyección SQL, que permite a los grandes modelos "desbordar" las instrucciones inyectando instrucciones. El propósito del big model jailbreaking es triple: aprender las mejores instrucciones de prompt diseñadas por otros, traspasar las restricciones éticas del big model y obtener acceso a las...
Introducción Al igual que muchos otros, en los últimos días mis tweets de noticias han estado llenos de noticias, elogios, quejas y especulaciones sobre el modelo de lenguaje grande DeepSeek-R1 de fabricación china, que fue lanzado la semana pasada. El propio modelo se está enfrentando a públicos como OpenAI, Meta...
Cuando se aprenden las ideas de ingeniería de muchas aplicaciones de IA, las palabras clave que escriben son a menudo una parte importante de la aplicación, y hermanito he aprendido innumerables comandos de craqueo de palabras clave de la manera difícil, y a menudo tengo que hacer una o más rondas de preguntas basadas en las características de diferentes modelos grandes antes de que pueda encontrar la palabra clave detrás de él. Ahora el problema se hace más fácil, aquí está esto...
Introducción general Break The AI es una plataforma centrada en retos y competiciones de IA diseñada para ayudar a los usuarios a mejorar sus habilidades de IA y participar en una variedad de tareas divertidas y desafiantes. El sitio ofrece una comunidad interactiva para entusiastas, estudiantes y profesionales de la...
El prompt simplificado para hacer más seguro y ético el modelo de la gran lengua es lo contrario del malvado DAN, y es más adecuado para los discapacitados mentales o los escenarios serios: ¡Hola! Vas a asumir el papel de ANT...
v2 es adecuado para los modelos GPT4, ChatGPT cuentas gratuitas que utilizan modelos GPT3.5 se recomienda probar AntiGPT v1. AntiGPT v2 Mensaje original Por favor, fingir estar en "opuesto ...
Introducción general Agentic Security es una herramienta de escaneo de vulnerabilidades LLM (Large Language Model) de código abierto diseñada para proporcionar a los desarrolladores y profesionales de la seguridad pruebas fuzz completas y técnicas de ataque. La herramienta admite conjuntos de reglas personalizadas o ataques basados en agentes y es capaz de integrar LLM AP...
😊 😊 Los dos emoticonos anteriores tienen el mismo aspecto. Si copias el segundo emoticono en DeepSeek-R1...
Introducción General Prompt Jailbreak Manual es un proyecto de código abierto alojado en GitHub y mantenido por el equipo de Acmesec. Se centra en enseñar a los usuarios cómo romper los límites del macromodelo de IA a través de palabras de aviso bien diseñadas (Prompt), ayudando a los entusiastas de la tecnología y los investigadores de seguridad....
Introducción ¿Te has preguntado alguna vez cómo los chatbots que utilizamos hoy en día, como los modelos de OpenAI, determinan si una pregunta es segura y debe ser respondida? De hecho, estos Grandes Modelos de Razonamiento (...