📄 中文摘要
针对 OpenAI 和 Anthropic 的诉讼将训练数据污染问题从一个小众的基准测试问题转变为生成性 AI 的核心法律和监管焦点。最初对基准测试膨胀的担忧,现在被框架为对个人和受保护数据在互联网规模上进行非法处理、保存和披露的指控。欧洲监管机构已将生成性模型视为2026年数据保护制度中最复杂的挑战之一,因为这些模型吸收了大量的个人和敏感数据。
Powered by Cloudflare Workers + Payload CMS + Claude 3.5
数据源: OpenAI, Google AI, DeepMind, AWS ML Blog, HuggingFace 等