基于 Transformer 的方法已显示出令人印象深刻的医疗图像恢复结果,这归因于空间维度中的多头自我注意力(MSA)机制。但是,大多数现有 Transformer 在固定和粗糙的区域内引起注意(\ text {例如 ...
许多现实世界应用中数据的复杂性和异质性对传统的机器学习和信号处理技术构成了重大挑战。例如,在医学中,对各种生理信号的有效分析对于患者监测和临床决策至关重要,却高度挑战。我们介绍了MEDTSLLM,这是一种通用的多模式大型语言模型(LLM)框架,该框架有效地以文本形式整合了时间序列和丰富的上下文信息,以分析生理信号,执行具有临床相关性的三个任务:语义细分,边界检测和在时间序列中的异常检测 ...
信息技术已深刻地改变了人类与信息互动的方式。在线创建,共享和传播的大量内容使访问相关信息变得越来越困难。在过去的二十年中,推荐系统和搜索(统称为信息检索系统)已大大发展以应对这些挑战 ...
通过给定的奖励函数优化文本对图像扩散模型是一个重要但毫无争议的研究领域。在这项研究中,我们提出了深度奖励调整(DRTUNE),该算法直接监督文本对图像扩散模型的最终输出图像,并通过迭代采样过程向输入噪声进行后退。我们发现,采样过程中的较早步骤对于低级奖励至关重要,并且可以通过停止脱氧网络输入的梯度来高效地实现深层监督 ...
近年来,基于扩散的3D一代取得了显着的进展。但是,现有的3D生成模型通常会产生过度致密和非结构化的网格,与人类设计师制作的紧凑,结构化和尖锐的计算机辅助设计(CAD)模型形成鲜明对比。为了解决这一差距,我们介绍了Caddreamer,这是一种从单个图像中生成CAD对象的边界表示(B-REP)的新方法 ...
随着自动贸易在金融市场中获得的吸引力,算法投资策略越来越突出。尽管大型语言模型(LLM)和基于代理的模型在实时市场分析和交易决策中表现出了有希望的潜力,但在面对迅速下降或频繁波动时,它们仍然遭受-20%的损失,这阻碍了他们的实际应用。因此,必须探索一个更健壮和弹性的框架 ...
最近,已经提出了基于深度学习的测试案例生成方法来自动化单位测试用例的生成。在这项研究中,我们利用基于 Transformer 的代码模型在项目级别的域适应(DA)的帮助下生成单元测试。具体来说,我们使用Codet5,这是一种在源代码数据上训练的相对较小的语言模型,并将其在测试生成任务上进行微调 ...
大型语言模型(LLM)路由已成为一种至关重要的策略,可以通过基于查询复杂性将查询动态分配给最合适的模型来平衡计算成本与性能。尽管最近的进展表明,基于偏好的路由器的表现可以胜过传统方法,但当前的评估基准仍有限。他们在很大程度上专注于通用模型能力,同时忽略了特定于任务的行为以及通过偏好数据引入的隐私,安全性和潜在的后门漏洞等关键问题 ...