在数据挖掘文献中已经对图生成模型进行了广泛的研究。尽管传统技术基于生成遵守预先决定分布的结构,但最近的技术已转向直接从数据中学习此分布。虽然基于学习的方法已经取得了显着提高质量,但仍有一些限制待解决 ...
0 0 0 2025/06/05 arXiv:2001.08184v2 victoriaheiheihei
大型语言模型(LLMS)供推荐(LLM4REC)是一个有前途的研究方向,在该领域表现出非凡的表现。但是,它无法捕获实时用户偏好极大地限制了LLM4REC的实际应用,因为(i)LLMS经常训练和推断成本高昂,并且(ii)LLMS难以访问实时数据(其大量参数构成了在设备上部署的障碍)。幸运的是,小型推荐模型(SRMS)可以通过消耗最小的资源来有效地补充LLM4REC图的这些缺点,以供频繁训练和推理以及 ...
0 0 0 2025/06/05 arXiv:2501.05647v2 帅哥
近年来,大型语言模型(LLMS)取得了巨大的成功,因为它们令人印象深刻的概括能力和丰富的世界知识。为了利用使用LLM作为推荐系统的潜力,主流方法通常集中在两个范式上。第一个范式设计多域或多任务指令数据,以获取可推广的建议,以使LLM与一般建议区域保持一致并处理冷启动建议 ...
0 0 0 2025/06/05 arXiv:2502.08271v1 帅哥
基于意图的推荐系统已引起了揭示潜在细粒偏好的极大关注。意图,作为相互作用的潜在因素,对于改善建议解释性至关重要。大多数方法将意图定义为与交互一起更新的可学习参数 ...
0 0 0 2025/06/05 arXiv:2502.03307v4 帅哥
减轻视觉模型(VLM)风险的一种方法是在其培训数据中删除危险样本。但是,当有害图像分为小小的良性斑块时,可以轻松绕过此类数据,这些贴片分散在许多训练样本中。然后,VLM可以在训练过程中学习将这些片段拼凑在一起,并在推理时产生有害响应,无论是完整图像还是文本引用 ...
0 0 0 2025/06/05 arXiv:2506.03614v1 haoyi199815
随着应用程序变得越来越强大,采用越来越频繁,了解和塑造大语模型(LLM)的行为越来越重要。本文介绍了专门为LLM设计的机器学习方法。我们为LLMS引入了一种选择性修剪方法,该方法基于神经元与整体网络性能相比对目标能力的相对重要性去除神经元 ...
0 0 0 2025/06/05 arXiv:2403.01267v2 wuyi
我们提出了Talkplay,这是一种新型的多式音乐推荐系统,使用大语言模型(LLMS)重新定义了作为 Token 生成问题的建议。通过利用LLMS的指导跟踪和自然语言生成功能,我们的系统有效地推荐了来自不同用户查询的音乐,同时产生上下文相关的响应。虽然审计的LLM主要是为文本模式设计的,但Talkplay通过两个关键创新扩展了其范围:多模式音乐 Token 器,它编码音频功能,歌词,元数据,语义标 ...
0 0 0 2025/06/05 arXiv:2502.13713v4 Jodie
培训大语言模型(LLMS)是资源密集且昂贵的,这使得为LLMS保护知识产权(IP)至关重要。最近,将指纹嵌入LLMS已成为建立模型所有权的普遍方法。但是,现有的指纹技术通常嵌入具有弱语义连贯性的可识别模式,导致指纹与自然提问(QA)行为明显不同 ...
0 0 0 2025/06/05 arXiv:2503.21805v2 wuyi

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)