AI个人学习
和实操指南

Agentic Security:开源的LLM漏洞扫描工具,提供全面的模糊测试和攻击技术

综合介绍

Agentic Security是一个开源的LLM(大语言模型)漏洞扫描工具,旨在为开发者和安全专家提供全面的模糊测试和攻击技术。该工具支持自定义规则集或基于代理的攻击,能够集成LLM API进行压力测试,并提供广泛的模糊测试和攻击技术。Agentic Security的设计初衷是作为一个安全扫描工具,帮助识别和修复潜在的安全漏洞,但不能保证完全防护所有可能的威胁。

Agentic Security:开源的LLM漏洞扫描工具,提供全面的模糊测试和攻击技术-1


 

功能列表

  • 自定义规则集:支持用户根据需求自定义安全扫描规则。
  • 代理攻击:基于代理的攻击模拟,测试系统的安全性。
  • 全面模糊测试:针对任何LLM进行全面的模糊测试,识别潜在漏洞。
  • LLM API集成:支持与各种LLM API集成,进行压力测试和安全评估。
  • 多步骤攻击模拟:支持多步骤攻击模拟,测试系统在复杂攻击场景下的表现。
  • 数据集导入:支持用户导入自定义数据集进行测试。

使用帮助

安装流程

  1. 安装包:使用pip安装Agentic Security包:
   pip install agentic_security
  1. 启动应用:安装完成后,可以通过以下命令启动Agentic Security:
   python -m agentic_security

或者

   agentic_security --help

功能操作流程

  1. 初始化配置:首次使用时,需要初始化配置文件:
   agentic_security init

这将生成默认配置文件agesec.toml,用户可以根据需求修改配置。

  1. 运行扫描:使用以下命令运行安全扫描:
   agentic_security --port=PORT --host=HOST

其中PORTHOST可以根据实际情况进行设置。

  1. 自定义规则集:用户可以在配置文件中自定义安全扫描规则,具体格式如下:
   [general]
llmSpec = """
POST http://0.0.0.0:8718/v1/self-probe
Authorization: Bearer XXXXX
Content-Type: application/json
{
"prompt": "<<PROMPT>>"
}
"""
maxBudget = 1000000
max_th = 0.3
optimize = false
enableMultiStepAttack = false
  1. 导入数据集:用户可以将自定义数据集(CSV文件)放置在指定目录,启动时会自动加载:
   agentic_security.probe_data.data:load_local_csv
  1. 运行CI检查:可以将Agentic Security集成到CI/CD流程中,自动进行安全扫描:
   agentic_security ci-check

详细功能介绍

  • 自定义规则集:用户可以根据具体需求自定义安全扫描规则,灵活应对不同的安全测试场景。
  • 代理攻击:通过模拟代理攻击,测试系统在面对代理攻击时的安全性和稳定性。
  • 全面模糊测试:针对LLM进行全面的模糊测试,识别潜在的安全漏洞,确保系统的安全性。
  • LLM API集成:支持与各种LLM API集成,进行压力测试和安全评估,确保系统在高负载下的稳定性。
  • 多步骤攻击模拟:支持多步骤攻击模拟,测试系统在复杂攻击场景下的表现,帮助识别潜在的安全隐患。
  • 数据集导入:用户可以导入自定义数据集进行测试,灵活应对不同的测试需求。
未经允许不得转载:首席AI分享圈 » Agentic Security:开源的LLM漏洞扫描工具,提供全面的模糊测试和攻击技术

首席AI分享圈

首席AI分享圈专注于人工智能学习,提供全面的AI学习内容、AI工具和实操指导。我们的目标是通过高质量的内容和实践经验分享,帮助用户掌握AI技术,一起挖掘AI的无限潜能。无论您是AI初学者还是资深专家,这里都是您获取知识、提升技能、实现创新的理想之地。

联系我们
zh_CN简体中文