NVIDIA Garak : outil open-source pour détecter les vulnérabilités LLM et sécuriser l'IA générative
Introduction complète NVIDIA Garak est un outil open source spécialement conçu pour détecter les vulnérabilités dans les grands modèles de langage (LLM). Il vérifie le modèle pour de multiples faiblesses telles que les illusions, les fuites de données, l'injection d'indices, la génération de messages d'erreur, la génération de contenu nuisible, etc. par le biais de sondages statiques, dynamiques et adaptatifs...