大型视觉模型(LVLM)在各种任务中表现出了出色的表现。尽管取得了巨大的成功,但最近的研究表明,LVLMS与视觉图接触时会遇到重大局限性。为了研究这些局限性的原因,我们提出了VGCURE,这是一个全面的基准,涵盖了22项检查LVLMS的基本图形理解和推理能力的任务 ...
0 0 0 2025/05/31 arXiv:2412.13540v2 ShuoHanai
高效的跟踪因其在台式机GPU以外的现实部署的资源约束平台上运行的能力而引起了人们的关注。当前有效的跟踪器主要遵循面向精确的跟踪器,采用带有轻量级模块的一流框架。但是,盲目粘附于一流的范式可能并不是最佳的,因为在每个帧中合并了模板计算都会导致冗余,并且模板和搜索区域之间的普遍语义相互作用将压力放在边缘设备上 ...
0 1 0 2025/05/31 arXiv:2503.00516v1 bin
想象未来的轨迹是机器人进行合理计划并成功实现目标的关键。因此,文本条件的视频预测(TVP)是促进一般机器人政策学习的重要任务。为了解决这项任务并授权机器人预见未来的能力,我们提出了一个名为\ textbf {seer}的样本和计算有效的模型,通过在沿时间轴及时夸大文本对图像(T2I)稳定的扩散模型,来称为\ textbf {seer} ...
0 0 0 2025/05/31 arXiv:2303.14897v3 kkkk
推断缩放率具有前所未有的推理能力,并以强化学习为引发复杂推理的核心技术。但是,隐藏了最先进的推理LLM的关键技术细节(例如在OpenAI O1博客和DeepSeek R1技术报告中),因此社区仍然很难重现其RL培训结果。我们建议$ \ textbf {d} $ ecoupled剪辑和$ \ textbf {d} $ ynamic s $ \ textbf {a} $ mpling $ \ text ...
0 0 0 2025/05/31 arXiv:2503.14476v2 l_y
在当今的数据中心,个性化的推荐系统面临着诸如对大型内存能力和高带宽的需求,尤其是在执行嵌入操作时。以前的方法取决于基于DIMM的近内存处理技术或引入了3D堆叠的DRAM来解决内存结合的问题并扩展内存带宽。但是,当处理个性化推荐系统的扩大规模时,这些解决方案不足 ...
0 0 0 2025/05/31 arXiv:2402.04032v5 wangjun
大型语言模型(LLM)在各种代理计划任务中都取得了相当大的性能。但是,传统的代理计划方法采用了一种“洪水灌溉”方法,该方法不论将黄金轨迹,外部反馈和域知识注入代理模型。这种做法忽略了决策过程中情境自我意识的基本认知原则 - 能够动态评估情境需求并在决策过程中策略性地利用资源 ...
0 0 0 2025/05/31 arXiv:2504.03553v2 tufeiyuancaier
根据我们对漏洞检测的机器学习调查(ML4VD),在过去五年中发表的10篇论文中有9篇将ML4VD定义为功能级二进制分类问题:给定功能,它包含安全缺陷吗?根据我们作为安全研究人员的经验,面对决定给定功能是否使该程序容易受到攻击,我们通常会首先想了解调用此功能的上下文。在本文中,我们研究了在最受欢迎的ML4VD数据集中,实际上可以真正做出这个决定的频率,并研究了脆弱和不可损害的功能。如果函数参与了一个 ...
0 0 0 2025/05/31 arXiv:2408.12986v2 vtestyiqi
通过这项研究,我们研究了深度学习模型的准确性,以推断雷诺平均的Navier-Stokes解决方案。我们专注于现代化的U-NET体系结构,并就其计算压力和速度分布的准确性评估了大量训练有素的神经网络。特别是,我们说明了训练数据大小和权重的数量如何影响解决方案的准确性 ...
0 0 0 2025/05/31 arXiv:1810.08217v3 19102382462

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)