安全加固与防御

安全加固与防御

AI攻击检测

企业实践与分享

工具

  • Garak 一个用于大语言模型 (LLM) 漏洞扫描的 Python 包
  • PyRIT 微软发布的用于生成式人工智能的Python风险识别工具包
  • GPTFUZZER 利用自动生成的越狱提示对大型语言模型进行红队测试
  • PromptBench 一个用于测量LLMs对对抗性提示的鲁棒性的基准测试
  • securityGPT 面向GPT开发者的安全Prompt组件
  • PurpleLlama Meta出品的一套评估和改进LLM安全性的工具
  • Dioptra NIST发布的AI模型风险测试平台,用于评估AI风险和恶意攻击
  • Agent Security Bench (ASB) 一个综合框架,旨在形式化、基准化和评估基于LLM agent的攻击和防御
最后更新于