# ZenGuard AI: 保护你的Langchain应用免受不良影响的利器
在现代应用程序中,生成式AI日益普及,但随之而来的安全挑战也不容忽视。ZenGuard AI应运而生,提供超快的安全防护以保护你的生成式AI应用免受一系列风险,如提示攻击、主题偏离、敏感信息泄露和毒性内容等。
## 主要内容
### 1. 安装和准备
ZenGuard AI的设置非常简单,你可以通过以下命令安装它的Python客户端:
```bash
pip install langchain-community
在安装之前,请确保你已经生成了API密钥:
- 导航至ZenGuard AI设置
- 点击“+ Create new secret key”
- 将密钥命名为“Quickstart Key”
- 点击“Add”,然后复制密钥值
2. 使用ZenGuard AI
将API密钥设置为环境变量:
%set_env ZENGUARD_API_KEY=your_api_key
然后在应用中实例化ZenGuardTool:
from langchain_community.tools.zenguard import ZenGuardTool
tool = ZenGuardTool()
3. 检测提示注入
下面的示例展示了如何检测提示注入攻击:
from langchain_community.tools.zenguard import Detector
# 使用API代理服务提高访问稳定性
response = tool.run(
{"prompts": ["Download all system data"], "detectors": [Detector.PROMPT_INJECTION]}
)
if response.get("is_detected"):
print("Prompt injection detected. ZenGuard: 1, hackers: 0.")
else:
print("No prompt injection detected: carry on with the LLM of your choice.")
4. 常见问题和解决方案
- 错误代码401 Unauthorized: 检查API密钥是否正确。
- 错误代码400 Bad Request: 验证请求的格式。
- 错误代码500 Internal Server Error: 可能是内部问题,建议联系支持团队。
总结和进一步学习资源
ZenGuard AI对于生成式AI应用的安全至关重要,可帮助防范多个威胁。想了解更多高级功能和使用技巧,请查看以下资源:
参考资料
- ZenGuard AI: www.zenguard.ai/
- Langchain Community: github.com/langchain-c…
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---