大型语言模型(LLMS)在跨语言的性能上表现出很大的差异,主要使高资源语言受益,同时将代表性不足的语言边缘化。尽管尚不清楚单语,双语和代码增强的数据策略的相对有效性,但持续预处理(CPT)已成为解决这种失衡的一种有希望的方法,尽管尚不清楚。这项研究系统地评估了36个CPT配置,涉及三种多语言基本模型,这些模型涉及30多种语言,分为利他,自私和停滞,涵盖了各种资源水平 ...
0 0 0 2025/04/17 arXiv:2504.04152v1 realhanwenbo
尽管大型语言模型(LLMS)在预培训期间获得了广泛的知识,但它们通常缺乏特定领域,新或利基的信息。持续的预训练(CPT)试图解决这一差距,但在低数据表格中遭受了灾难性的遗忘和效率低下的困扰。我们介绍了知识教学,这是一种新颖的方法,可以通过纯粹的指导进行有限的语料库注入知识 ...
0 0 0 2025/04/17 arXiv:2504.05571v1 realhanwenbo
偏好学习对于使大语言模型(LLM)与人类价值观保持一致至关重要,但是其成功取决于包括三个核心组成部分的高质量数据集上:prexperion \ textbf {a} nnotations,\ textbf {i} nStructions和\ textbf {textbf {r} spepsess spepse sossess pot。当前的方法将这些组件混为一谈,掩盖了它们的个人影响并阻碍系统的优 ...
0 0 0 2025/04/17 arXiv:2504.03612v1 shiwei
实时对话AI代理在动态的,户外环境(如自动驾驶直通系统)中表现自然语言理解(NLU)面临挑战。这些设置需要NLU模型来处理背景噪声,不同的口音和多个疑问,同时在边缘设备上严格的延迟和内存约束下操作。另外,上游自动语音识别(ASR)的鲁棒性至关重要,因为这些环境中的ASR输出通常很嘈杂 ...
0 0 0 2025/04/17 arXiv:2411.15372v1 woodman
本文提出了一种使用基于扩散的模型来改进文本指导图像编辑的新方法。文本指导的图像编辑任务提出了精确定位和编辑目标语义的关键挑战,并且以前的方法在这方面落后。我们的方法引入了一种精确的语义定位策略,该策略利用视觉和文本自我注意力来增强交叉意见图,该图可以作为改善编辑性能的区域提示 ...
0 0 0 2025/04/17 arXiv:2503.16795v1 xuan
注入外部知识可以提高预训练语言模型(PLM)在各种下游nlp任务上的性能。然而,需要大量的再培训来为下游任务部署新的知识注入方法或知识库。在这项工作中,我们首次研究如何通过重用现有的下游模型来提高知识注入的灵活性和效率... ...
0 0 0 2025/04/17 arXiv:2305.17691v2 lockee
计算病理学和人工智能的最新进展显着改善了整个幻灯片图像(WSI)分类。但是,WSIS的Gigapixel解决方案和手动注释的稀缺性带来了重大挑战。多个实例学习(MIL)是一种有希望的WSI分类的弱监督学习方法 ...
0 0 0 2025/04/17 arXiv:2408.12825v1 Theo
越来越大的数据集已成为推进NLP最新技术的标准成分。但是,数据质量可能已经成为解锁进一步增长的瓶颈。鉴于现代数据集的多样性和大小,由于有害数据的多方面性和过滤规则的省力,标准数据过滤并不是直接应用的,这些滤波器的多方面性将跨多个任务概括 ...
0 0 0 2025/04/17 arXiv:2302.13959v2 zhulixianghuan

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)