注册
当前位置:首页 » 文章 » 笔记

NeurIPS 2024最佳论文揭晓:北大字节联合研究获殊荣

在刚刚结束的NeurIPS 2024大会上,最佳论文奖项备受关注。其中,北京大学与字节跳动联合研究的论文《Visual Autoregressive Modeling: Scalable Image Generation via Next-Scale Prediction》荣获最佳论文奖,该研究提出了一种新的图像生成框架VAR,首次超越了扩散模型,展现了自回归模型在图像生成任务中的潜力。同时,新加坡国立大学与Sea AI Lab的研究者凭借《Stochastic Taylor Derivative Estimator: Efficient amortization for arbitrary differential operators》一文同样获得最佳论文荣誉,该论文介绍了一种高效算法STDE,用于优化包含高维和高阶微分算子的神经网络损失函数。此外,厦门大学、清华大学与微软的联合研究以及英伟达和阿尔托大学的研究分别获得最佳论文亚军。这些研究成果不仅展示了AI领域的最新进展,也为未来的技术发展提供了新的方向。

NeurIPS 2024大会在温哥华成功举办,共收到15671篇有效论文投稿,最终接收率约为25.8%。在众多优秀论文中,四篇论文脱颖而出,其中华人研究者主导的论文占据了三篇,显示了华人在AI领域的强大研究实力。

北京大学与字节跳动的研究人员共同完成的论文《Visual Autoregressive Modeling: Scalable Image Generation via Next-Scale Prediction》,提出了一种创新的图像生成框架VAR,该框架通过多尺度自回归策略生成图像,显著减少了生成高分辨率图像所需的自回归步骤,降低了计算复杂度,提高了生成速度,并在ImageNet数据集上超越了现有的自回归模型和部分扩散模型。

新加坡国立大学和Sea AI Lab的研究者共同完成的论文《Stochastic Taylor Derivative Estimator: Efficient amortization for arbitrary differential operators》,介绍了一种名为STDE的高效算法,该算法优化了包含高维和高阶微分算子的神经网络损失函数,特别是在物理信息神经网络(PINNs)中的应用,提供了1000倍以上的速度提升和30倍以上的内存减少。

厦门大学、清华大学和微软的联合研究《Not All Tokens Are What You Need for Pretraining》挑战了传统的预训练方法,提出了一种新的预训练方法RHO-1,该方法通过选择性训练有用的tokens,提升了数据效率和语言模型预训练的性能。

英伟达和阿尔托大学的研究《Guiding a Diffusion Model with a Bad Version of Itself》提出了一种名为自引导的方法,通过使用主模型的较小版本作为引导模型,提高了图像生成质量,同时保持了图像的多样性。

这些获奖论文不仅代表了AI领域的最新研究成果,也为未来的技术发展提供了新的思路和方向。

-=||=-收藏赞 (0)

评论 ( 0 )

微信咨询

qrcode

关注公众号

qrcode

回顶部