安全加固与防御
安全加固与防御
- 大语言模型安全指南:如何提升LLM安全抵御Prompt Injection
- 代码安全
- 追问新知|大语言模型如何提升自我防御技能?
- AI&机器学习的威胁建模
- 【AI安全】终章-构建可用的人工智能风险管理框架
- Google’s Secure AI Framework
- Protecting Large Language Models
AI攻击检测
企业实践与分享
工具
- Garak 一个用于大语言模型 (LLM) 漏洞扫描的 Python 包
- PyRIT 微软发布的用于生成式人工智能的Python风险识别工具包
- GPTFUZZER 利用自动生成的越狱提示对大型语言模型进行红队测试
- PromptBench 一个用于测量LLMs对对抗性提示的鲁棒性的基准测试
- securityGPT 面向GPT开发者的安全Prompt组件
- PurpleLlama Meta出品的一套评估和改进LLM安全性的工具
- Dioptra NIST发布的AI模型风险测试平台,用于评估AI风险和恶意攻击
- Agent Security Bench (ASB) 一个综合框架,旨在形式化、基准化和评估基于LLM agent的攻击和防御
最后更新于