为了使AI系统与人有效沟通,他们必须了解我们如何做出决定。但是,人们的决定并不总是理性的,因此在大语模型(LLMS)中,人类决策的隐式内部模型必须考虑到这一点。以前的经验证据似乎表明,这些隐性模型是准确的-LLMS提供了可信的人类行为的代理,表现出我们期望人类在日常互动中的期望 ...
0 0 0 2025/06/16 arXiv:2406.17055v4 huangjiabao
在地理空间域中,通用表示模型的普遍性要比其在自然语言处理和计算机视觉中的广泛使用少得多。这种差异主要源于与现有表示模型的投入相关的高成本,这些模型通常需要街道视图和移动性数据。为了解决这个问题,我们开发了一种新颖的,无训练的方法,该方法利用openstreetMap的大型语言模型(LLM)和辅助图数据来得出地理位置表示(LLMGEOVEC) ...
0 0 0 2025/06/16 arXiv:2408.12116v2 1spb
句子表示学习(SRL)是自然语言处理(NLP)中的一项基本任务,由于其出色的性能,对句子嵌入(CSE)的对比度学习是主流技术。 CSE中一种有趣的现象是监督和无监督方法之间的显着性能差距,其唯一的差异在于培训数据。以前的工作将这一性能差距归因于两个表示属性(对齐和均匀性)的差异 ...
0 0 0 2025/06/16 arXiv:2309.06453v2 wuyi
随着大规模语言模型对安全关键领域的影响越来越大,确保它们可靠地遵守明确定义的原则仍然是一个基本挑战。我们引入了协商对齐(Deliberative Alignment),这是一种新的范式,可以直接教授模型安全规范,并训练它在回答之前明确回忆并准确推理规范。我们使用这种方法来调整 OpenAI 的 o 系列模型,并实现了对 OpenAI 安全策略的高度精确遵守,而不需要人工编写的思路或答案 ...
0 0 0 2025/06/16 arXiv:2412.16339v2 zhaozijian
无监督的学习技术已经赶上了甚至超过一般对象分类(GOC)和人员重新识别(RE-ID)的监督学习技术。但是,发现无监督的细粒度视觉分类(FGVC)比GOC和人重新ID更具挑战性。为了弥合FGVC的无监督和监督学习之间的差距,我们研究了监督和无监督的FGVC之间的性能差距(包括特征提取,聚类和对比度学习) ...
0 0 0 2025/06/16 arXiv:2203.00441v1 wuyi
本文通过自回旋模型(D-AR)进行了扩散,这是一种新的范式,以标准的下一步预测方式将图像扩散过程重新塑造为一种香草自回归过程。我们首先设计将图像转换为离散 Token 序列的 Token ,在该序列中,可以将不同位置的 Token 解码为像素空间中的不同扩散降解步骤。得益于扩散属性,这些 Token 自然遵循粗到最新的顺序,这直接将其自动进行自回旋建模 ...
0 0 3 2025/06/16 arXiv:2505.23660v1 Lydia1317
最近已广泛采用修剪以减少参数量表并提高大语模型(LLMS)的推理效率。主流修剪技术通常依赖于均匀的地层修剪策略,这可能导致高稀疏度的严重性能降解。认识到LLM中不同层的不同贡献,最近的研究将注意力转移到了不均匀的层上修剪 ...
0 0 0 2025/06/16 arXiv:2505.23807v3 shawn_ooo
虚拟电影制作需要复杂的决策过程,包括剧本,虚拟摄影以及精确的演员定位和行动。本文介绍了基于语言代理的社会的自动决策的最新进展,本文介绍了一种基于LLM的新型多代理合作框架,用于我们构建的3D虚拟空间中的端到端电影自动化。 Filmagent模拟了各种工作人员角色,包括导演,编剧,演员和摄影师,并涵盖了电影制作工作流程的关键阶段:(1)创意发展将头脑风暴的想法转变为结构化的故事大纲; (2)剧本详细 ...
0 0 0 2025/06/16 arXiv:2501.12909v1 liuyibo

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)