深层神经网络的一个有趣的特性是存在对抗性例子,可以在不同的体系结构之间转移。这些可转移的对抗性示例可能严重阻碍了基于神经网络的深层应用程序。先前的工作主要使用小型数据集研究可传递性 ...
0 0 0 2025/04/17 arXiv:1611.02770v3 Hahhhnxsm
单像超分辨率可以在需要可靠的视觉流以监视任务,处理远距离操作或研究相关视觉细节的环境中支持机器人任务。在这项工作中,我们为实时超级分辨率(称为Edgesrgan)提出了一个有效的生成对抗网络模型(可在此HTTPS URL上获得代码)。我们采用了原始SRGAN的量身定制体系结构和模型量化,以提高CPU和Edge TPU设备上的执行,最多达到200 fps的推断 ...
0 0 0 2025/04/17 arXiv:2209.03355v2 howieeyang
图形用户界面(GUI)代理为自动化复杂的数字任务提供跨平台解决方案,具有转换生产力工作流程的巨大潜力。但是,它们的性能通常受到高质量轨迹数据的稀缺性的限制。为了解决这一限制,我们在专门的中期训练阶段提出了培训视觉语言模型(VLM),推理密集型任务,然后研究如何纳入这些任务如何促进对GUI计划方案的概括 ...
0 0 0 2025/04/17 arXiv:2504.10127v2 bage
尽管大型语言模型(LLM)在知识回忆和推理方面表现出色,但随着现实世界的发展或适应特定领域的知识,它们的静态性质导致了过时的信息,突出了有效的知识注入的需求。但是,当前对知识注射的研究仍然是肤浅的,主要集中在知识记忆和检索上。本文提出了一个四层知识注入框架,该框架系统地定义了知识注入的水平:记忆,检索,推理和关联 ...
0 0 0 2025/04/17 arXiv:2504.00472v1 realhanwenbo
大型卷积网络模型最近在ImageNet基准测试中表现出了令人印象深刻的分类性能。但是,尚无清楚地了解他们为什么表现如此出色,或者如何改善它们。在本文中,我们解决了这两个问题 ...
0 0 0 2025/04/17 arXiv:1311.2901v3 Jasper1
大型语言模型(llm)已展现出令人印象深刻的泛化未知任务的能力。在命名实体识别( ner)任务中,最近的进展表明,通过采用以实体为中心的模式,通过指令调整 ...
0 0 0 2025/04/17 arXiv:2402.16602v2 wld
我们介绍了Falcon系列:7b,40b和180b参数,仅因素模型,该模型训练了以不同的高质量语料库为主要由Web数据组装而来的高质量语料库。最大的型号Falcon-180B已接受了3.5万亿 Token 的培训,该文本是最大的公开记录的预算训练 ...
0 0 0 2025/04/17 arXiv:2311.16867v2 killerman028
为了解决自然语言中大型语言模型性能对 SQL 任务的挑战,我们引入了 XiYan-SQL,这是一种创新框架,采用多生成器集成策略来改进候选生成。我们介绍 M-Schema,一种半结构化模式表示方法,旨在增强对数据库结构的理解。为了提高生成的候选 SQL 查询的质量和多样性,XiYan-SQL 将上下文学习 (ICL) 的巨大潜力与监督微调的精确控制相结合 ...
0 0 0 2025/04/17 arXiv:2411.08599v3 luck

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)