📄 中文摘要
对 50 个来自公共 GitHub 仓库的系统提示进行了测试,评估其对提示注入攻击的脆弱性。测试结果显示,平均得分为 3.7/100,其中 70% 的提示没有任何防御措施,只有少数提示得分超过 10。最佳得分为 28/100,显示出大多数系统在防御提示注入攻击方面的不足。这项测试揭示了 AI 应用在安全性方面的严重问题,尤其是在面对潜在的攻击时,开发者需要更加关注系统提示的安全性和防护措施。
Powered by Cloudflare Workers + Payload CMS + Claude 3.5
数据源: OpenAI, Google AI, DeepMind, AWS ML Blog, HuggingFace 等