返回搜索GitHub

开发者工具

llm-guard

保护 LLM 交互安全的综合安全工具

质量分81
0 Stars
unknown
medium

中文速读

LLM Guard 是 Protect AI 开发的 LLM 安全工具包,提供提示词注入检测、敏感内容过滤、输出安全审查等功能。提供 HuggingFace Playground。

快速试用

暂未发现稳定的 Demo 或视频入口。

适合

  • 需要保护LLM应用安全的团队
  • AI安全工程师

不适合

  • 不需要安全过滤的场景

标签

LLM安全提示词注入内容过滤