大型语言模型(LLMS)在提问(QA)任务上表现出了出色的表现,因为它们在自然语言理解和产生方面具有出色的能力。但是,由于推理能力差,知识过时和幻觉,基于LLM的质量检查局在复杂的质量检查任务中挣扎。最近的几项工作合成了LLM和知识图(kgs),以应对上述挑战 ...
0 0 0 2025/06/18 arXiv:2505.20099v1 aulisa
将结构化知识从知识图(kgs)整合到大语言模型(LLMS)中增强了事实基础和推理能力。该调查文件系统地研究了公斤和LLM之间的协同作用,将现有方法分为两个主要组:kg增强的LLM,从而改善了推理,减少幻觉并启用复杂的问题答案;和LLM扬名的公斤,可促进kg的建设,完成和查询。通过全面的分析,我们确定了关键的差距,并突出了结构化知识整合的相互益处 ...
0 0 0 2025/06/18 arXiv:2506.09566v1 aulisa
面部解析会侵入每个面部成分的像素标签,最近引起了很多关注。先前的方法表明了它们在面部解析方面的效率,但是忽略了不同面部区域之间的相关性。相关性是关于面部外观,姿势,表达等的关键线索 ...
测试时间培训(TTT)模型上下文依赖性通过在推理过程中调整模型的一部分(称为快速权重)来模型。这种快速重量(类似于RNN中的复发状态)以当前序列存储过去 Token 的临时记忆。由于现代GPU效率低下,现有的TTT方法努力表现出在处理长篇小说数据方面的有效性 ...
0 0 0 2025/06/18 arXiv:2505.23884v1 binggong
基于图形神经网络(GNN)的协作过滤方法已经见证了推荐系统(RS)的显着成功,并利用了他们通过消息通知机制在复杂的用户项目中捕获协作信号的能力。但是,这些基于GNN的RS无意间引入了用户和项目嵌入之间的过剩线性相关性,这与提供个性化建议的目标相矛盾。尽管现有的研究主要将这一缺陷归因于过度光滑的问题,但本文强调了过度相关问题在降低GNN表示的有效性和随后的建议绩效方面的关键,经常被忽视的作用 ...
0 0 0 2025/06/18 arXiv:2403.17416v2 CG_Z
大多数现有的知识图通常都不完整,可以通过某些推理算法来补充。基于路径特征的推理方法被广泛用于知识图推理的领域,并且由于其具有强大的解释性。但是,基于路径特征的推理方法在以下方面仍然存在多个问题:搜索search iSineff,稀疏任务的路径不足,某些路径对推理任务无济于事 ...
0 0 0 2025/06/18 arXiv:2211.00914v1 song43
知识图(kgs)是公司的主要资产,这要归功于它们在数据表示方面的灵活性及其众多应用程序,例如词汇共享,q/a或推荐系统 ...
0 0 0 2025/06/18 arXiv:2405.16929v2 HuanLi
图神经网络(GNN)已被广泛用于社交网络,分子生物学或推荐系统等各个领域。同时,已经出现了不同的GNN解释方法来补充其黑盒性质。 GNNS预测的解释可以分为两种类型 - 事实和反事实 ...
0 0 0 2025/06/18 arXiv:2505.07081v2 Rimez

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)