最近,DeepSeek-R1(例如DeepSeek-R1)等深层推理大型语言模型(LLM)在数学和编码等任务中取得了重大进展。受到这一点的启发,一些研究采用了加强学习(RL)来增强模型的深层推理能力并提高机器翻译(MT)质量。但是,术语翻译是MT中的重要任务,在深度推理LLM中仍未探索 ...
0 0 0 2025/06/02 arXiv:2505.21172v1 ChenSF1998
内存是基于大型语言模型(LLMS)代理的基础AI系统的基本组成部分。虽然先前的调查专注于LLMS的内存应用,但它们经常忽略内存动态的原子操作。在此调查中,我们首先将内存表示形式分为参数,上下文结构化和上下文非结构化,然后引入六个基本内存操作:合并,更新,索引,遗忘,检索和压缩 ...
0 0 11 2025/06/02 arXiv:2505.00675v2 chrisxiong
多模式代理将控制器(例如,视觉语言模型)与外部工具集成在一起,在解决复杂的多模式任务方面具有显着的功能 ...
0 0 0 2025/06/02 arXiv:2504.21561v3 chrisxiong
手性活性颗粒(盖)是自传粒子,通过绕或旋转而打破时间反转对称性,导致有趣的行为。在这里,我们检查了通过活跃的布朗动力学模拟和草种子的粒状实验在磁盘障碍物的2D晶格中移动的帽动力学。我们发现,盖的有效扩散率对障碍物晶格的结构敏感,这是ACHIRAL活性颗粒中不存在的特征 ...
0 0 0 2025/06/02 arXiv:2310.06662v1 kcyao
最近,大型语言模型(LLM)在自然语言理解和生成任务中的惊人表现引发了对将它们用作中央控制器的人们来构建代理系统的大量探索。扩展应用场景。然而,目前的 LLM 工具使用能力仅限于单个文本查询,这可能会导致用户真正理解含糊不清... ...
0 1 0 2025/06/02 arXiv:2401.10727v3 15966829631
作为最基本的场景理解任务,目标检测和分割在深度学习时代取得了巨大的进步。由于昂贵的手动标记成本,现有数据集中的注释类别通常是小规模的和预定义的,即... ...
0 0 0 2025/06/02 arXiv:2307.09220v2 sunwhw
通过对正在进行的6.5米MMT天文台进行翻新的自适应次级镜(ASM)的调试,必须进行特殊考虑以正确校准镜面响应函数以生成相互作用矩阵(IM)。 ASM的调试是MMT自适应光学系外行驶表征系统(MAPS)的一部分,升级了观测站的传统自适应光学(AO)系统 ...
0 0 0 2025/06/02 arXiv:2408.06974v1 mhzerg1437
长期时间序列预测(LTSF)的最新深度学习模型通常会强调复杂的手工设计,而更简单的架构(如线性模型或MLP)通常比这些复杂的解决方案都优于这些复杂的解决方案。在本文中,我们重新访问和组织了几种关键技术背后的核心思想,例如减少冗余和多尺度建模,这些建模经常在高级LTSF模型中使用。我们的目标是简化这些想法以进行更有效的深度学习利用 ...
0 0 0 2025/06/02 arXiv:2504.12721v3 oneyhu

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)