((“ 两种流行的方法是完全微调(更新所有模型参数”)(“头部”),。众所周知,微调可以提高分布(id)的准确性。然而,在本文中,我们发现当预训练特征良好并且分布偏移较大时 ...
0 0 0 2025/05/22 arXiv:2202.10054v1 Nagi-ovo
微调预审计的模型是域泛化(DG)任务中的常见实践。但是,由于预审预理论的型号的尺寸不断增长,微型调整通常在计算上很昂贵。更重要的是,这可能会导致过度拟合源域并损害其概括能力,如最近的作品所示 ...
0 0 0 2025/05/22 arXiv:2203.04600v1 15966829631
重启技术在处理多模态函数的无梯度优化中很常见。部分热重启在基于梯度的优化中也越来越受欢迎,以提高加速梯度方案的收敛速度,以处理病态函数。在本文中,我们提出了一种简单的随机梯度下降热重启技术,以提高其在训练深度神经网络时的随时性能... ...
0 0 0 2025/05/22 arXiv:1608.03983v5 ukon
这项工作提出了MLIR,这是一种构建可重复使用且可扩展的编译器基础架构的新型方法。 MLIR旨在解决软件碎片化,改进异质硬件的编译,大大降低建筑域特定编译器的成本,并有助于将现有编译器连接在一起。 MLIR促进了不同级别的抽象层面以及应用程序域,硬件目标和执行环境的代码生成器,翻译器和优化器的设计和实现 ...
0 0 0 2025/05/22 arXiv:2002.11054v2 yangzj1
多层中间表示(MLIR)通过提供可重复使用且可扩展的编译器基础架构来降低构建域特异性编译器的成本的巨大希望。这项工作提出了TPU-MLIR,这是一种基于MLIR的端到端编译器,该编译器将预训练的神经网络(NN)模型部署到称为张量处理单元(TPU)的自定义ASIC。 TPU-MLIR定义了两个新方言以实现其功能:1 ...
0 0 0 2025/05/22 arXiv:2210.15016v2 yangzj1
在强大的图像扩散模型的驱动下,最近的研究从文本或视觉指导中实现了3D对象的自动创建。通过在不同视图上迭代地进行评分蒸馏采样(SDS),这些方法在3D空间之前成功提升了2D生成剂。但是,这样的2D生成图像先验将照明和阴影的效果烘烤到纹理中 ...
0 0 0 2025/05/22 arXiv:2404.13923v3 zhifeiji
由于其在各个领域的出色性能,Transformer 已成为基础模型中的主要架构。然而,扩展这些模型的巨大成本仍然是一个重大问题。这个问题主要是由于它们对线性投影内固定数量的参数的依赖而产生的 ...
0 0 0 2025/05/22 arXiv:2410.23168v2 SGN001
从单个图像中恢复对象的几何形状和材料由于其受约束的性质不足而具有挑战性。在本文中,我们提出了神经Lightrig,这是一个新颖的框架,可以通过利用2D扩散先验的辅助多光照明条件来增强内在估计。具体来说,1)我们首先利用大规模扩散模型的照明先验,以在具有专用设计的合成重新确定数据集上构建我们的多光扩散模型 ...
0 0 0 2025/05/22 arXiv:2412.09593v1 zhifeiji

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)