分子表示学习对于许多与药物相关的应用是基础。大多数现有的分子预训练模型在使用单分子模态(微笑或图表表示)方面受到限制。为了有效利用这两种模式,我们认为捕获微笑和图之间的细粒“语义”至关重要,因为微妙的序列/图差可能会导致相反的分子特性 ...
0 0 0 2025/07/01 arXiv:2310.14216v2 zy_
人工智能(AI)已成为现代安全解决方案不可或缺的一部分,因为它具有学习非常复杂的功能和处理“大数据”的能力。但是,当信任模型预测至关重要时,成功的AI模型缺乏解释性和可解释性是一个关键的绊脚石。这导致人类干预,进而导致延迟的反应或决策 ...
0 0 0 2025/07/01 arXiv:1911.09853v2 vvA
最近的研究表明,深层生成扩散模型中的脱氧过程暗中学习并记住了数据分布中的语义信息。这些发现表明,捕获更复杂的数据分布需要更大的神经网络,从而导致计算需求大幅增加,进而成为扩散模型的训练和推断的主要瓶颈。为此,我们介绍了GMEM:一种用于超高生成模型的模块化方法 ...
0 0 0 2025/07/01 arXiv:2412.08781v2 szfmsmdx
已经证明,经过思考链(COT)和循环 Transformer 可以通过递归增加计算步骤的数量来提高推理任务的绩效,并理论上提高表达性。但是,它们的比较能力仍然不太了解。在本文中,我们对它们各自的优势和局限性进行正式分析 ...
0 0 0 2025/07/01 arXiv:2505.19245v1 odenkkk
用于联合实体识别和关系提取的最先进模型强烈依赖于外部自然语言处理(nlp)工具,例如pos(词性),此类联合模型的性能取决于从这些 ...
0 0 0 2025/07/01 arXiv:1804.07847v3 leizhengtao520
多模式大语模型(MLLM)在一般视觉任务中表现出了令人印象深刻的表现。但是,最近的研究暴露了其空间推理能力的关键局限性。空间推理的这种缺乏显着限制了MLLM与物理世界有效互动的能力,从而限制了其更广泛的应用 ...
0 0 0 2025/07/01 arXiv:2504.15037v2 15021163060
大型语言模型(LLMS)在各种自然语言处理任务中表现出了出色的表现。但是,如何全面,准确地评估其绩效成为要解决的紧迫问题。本文介绍了Gaokao Bench,这是一种直观的基准,该基准采用了中国Gaokao考试的问题作为测试样本,包括主观和客观问题。为了与人类检查方法保持一致,我们设计了一种基于零摄影设置的方法来评估LLM的性能 ...
0 0 0 2025/07/01 arXiv:2305.12474v3 Saros
检索增强的生成(RAG)系统依靠检索模型来识别相关的上下文和回答生成模型以利用这些上下文。 However, retrievers exhibit imperfect recall and precision, limiting downstream performance.我们介绍了RAG-RL,这是一种答案生成模型,不仅培训了为了产生答案,还可以识别并引用相关信息,从较大的检索到的上下文中,从 ...
0 0 0 2025/07/01 arXiv:2503.12759v2 Ian233

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)