由于其完全可区分的设计集成了模块化任务,即感知,预测和策略,因此对端到端自动驾驶的研究兴趣激增,这可以实现最终目标的优化 ...
我们研究了高维均匀性测试问题,其中涉及测试基础分布是否是统一分布,鉴于$ n $ n $数据点$ p $维单位hypersphere。尽管在具有固定$ p $的方案中对此问题进行了广泛的研究,但在高维设置中仅知道三个测试程序:瑞利测试\ cite {cutt-p-v},宾厄姆测试\ cite {cutt-p-v2},包装测试\ cite \ cite \ cite {jiang13}。大多数现有的 ...
通过在推断过程中纳入外部知识,检索授权的生成(RAG)已被证明可以有效缓解大语言模型的幻觉。但是,这种集成引入了新的安全漏洞,尤其是中毒攻击。尽管先前的工作探讨了各种中毒策略,但对它们对抹布系统的实际威胁的彻底评估仍然缺失 ...
检索增强的生成(RAG)系统通过合并外部知识来增强大语言模型,解决过时的内部知识和幻觉等问题。但是,它们对外部知识基础的依赖使它们容易受到语料库中毒攻击的影响,在这些攻击中,可以注入对抗性段落以操纵检索结果。现有的制作此类段落的方法,例如随机 Token 更换或训练倒置模型,通常很慢且计算上很昂贵,需要访问回猎犬的梯度或大量的计算资源 ...
已知大型语言模型(LLM)容易受到越狱攻击的影响,在这种攻击中,对手会利用精心设计的提示来引起有害或不道德的反应。这些威胁引起了人们对LLM在现实世界部署中安全性和可靠性的关键关注。尽管现有的防御机制部分降低了这种风险,但随后的对抗技术的进步使新的越狱方法可以避免这些保护,从而揭示了静态防御框架的局限性 ...
本文介绍了Openai最近在弱到较强概括(W2SG)的最高批准工作的后续研究。超级对准侧重于确保高级AI系统在处理复杂,高风险的任务时与人类价值观和意图保持一致。 W2SG框架在这个不断发展的领域为实证研究开辟了新的可能性 ...
最新的学习指数结构的提案为如何优化传统范围索引提供了新的观点。但是,当前学习的索引假设数据分布相对静态,并且访问模式是统一的,而现实世界的场景由偏斜的查询分布和不断发展的数据组成。在本文中,我们证明了对访问模式和动态数据分布的缺失特别阻碍了学习索引的适用性 ...
大型语言模型(LLMS)在各个领域充当AI助手时表现出幻觉(即不忠或荒谬的信息) ...