📄 中文摘要
在提升生成模型的可信性和稳健性方面,不确定性量化(UQ)方法展现出良好的潜力。然而,许多现有方法依赖于僵化的启发式规则,难以在不同任务和模态中推广。提出了一种新颖的UQ框架,具有高度灵活性,能够接近或超越先前启发式方法的性能。引入了方向性集中不确定性(DCU),这是一种基于冯·米塞斯-费舍尔(vMF)分布的统计程序,用于量化嵌入的集中度。该方法通过测量语言模型生成的多个输出的几何分散性,捕捉不确定性。
Powered by Cloudflare Workers + Payload CMS + Claude 3.5
数据源: OpenAI, Google AI, DeepMind, AWS ML Blog, HuggingFace 等