TOUP-K建议是建议系统中的一项基本任务,通常通过比较正面和负面来学习。对比度损失(CL)是最近受到更多关注的对比学习的关键,我们发现它非常适合Top-K建议。但是,CL将正面和负样本的重要性视为相同的问题 ...
0 0 0 2025/07/01 arXiv:2109.00217v1 15966829631
在序列之间建模长期依赖性是机器学习的一个长期目标,并导致了诸如状态空间模型之类的体系结构,在长序列上极大地超过了 Transformer 。然而,这些令人印象深刻的经验收益在基准上得到了很大的证明(例如 ...
0 0 0 2025/07/01 arXiv:2310.02980v4 yanyu
大语言模型(LLM)的快速进步已引起了一种新类别的自主AI系统,称为深度研究(DR)代理。这些代理人旨在通过利用动态推理,自适应长期计划,多跳信息检索,迭代工具使用和生成结构化分析报告的结合来解决复杂的多转化信息研究任务。在本文中,我们对构成深层研究代理的基础技术和建筑组件进行了详细的分析 ...
0 0 0 2025/07/01 arXiv:2506.18096v1 18743622602
在上一个两年期期间,视觉语言预训练在几个下游任务上取得了值得注意的成功。然而,获得对彼此完全不包括的高质量图像文本对,仍然是一项具有挑战性的任务,并且在常用的数据集中存在噪音。为了解决这个问题,我们提出了一种新颖的方法,这是一种新颖的方法,可以放松严格的一对一约束,并通过引入软化的目标来实现柔软的交叉模式对齐,这是由高元素内模式内的自我相似性产生的 ...
0 0 0 2025/07/01 arXiv:2303.17561v2 jeft
由于其端到端的管道和有希望的结果, Transformer 引起了对STVG的越来越多的兴趣。现有的基于 Transformer 的STVG方法通常利用一组对象查询,这些查询仅使用零来初始化,然后通过具有多模式特征的迭代交互逐渐学习目标位置信息,以进行空间和时间定位。尽管很简单,但由于缺乏目标特异性提示,这些零对象查询很难从复杂场景中与多模式特征的相互作用中学习判别目标信息(\ e ...
0 0 0 2025/07/01 arXiv:2502.11168v1 yanyu
对比度学习已在嵌入学习的句子中进行了广泛的研究,该句子假设同一句子的不同观点的嵌入更接近。这个假设带来的约束很薄弱,良好的句子表示也应该能够重建原始句子片段。因此,本文提出了一个被称为Infocse的无监督句子嵌入的信息聚集的对比学习框架 ...
0 0 0 2025/07/01 arXiv:2210.06432v3 15966829631
现实世界中的数据通常遵循长尾巴的分布,其中一些多数类别占据了大多数数据,而大多数少数族裔类别都包含有限数量的样本。分类模型最小化的跨凝结努力来代表和对尾部类别进行分类。尽管对学习公正的分类器的学习问题进行了充分的研究,但代表数据不平衡数据的方法却没有探索 ...
0 0 0 2025/07/01 arXiv:2207.09052v3 15966829631
在后深度学习时代, Transformer 架构在预训练的大模型和各种下游任务上展现了强大的性能。然而,这种架构巨大的计算需求让许多研究人员望而却步。为了进一步降低注意力模型的复杂性,人们做出了大量努力来设计更有效的方法... ...
0 0 0 2025/07/01 arXiv:2404.09516v1 boboshen

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)