好吃好在
注册
当前位置:首页 » 文章

2024年诺贝尔物理学奖得主都做了哪些方面的贡献?

霍普菲尔德(John Hopfield)开创了重要的理论和方法,为机器学习奠定了基础;辛顿(Geoffrey Hinton)则在霍普菲尔德的基础上,进一步发明了新的方法和模型,推动了机器学习技术的发展和应用,他们的工作共同构建了机器学习的基础框架,对人工智能的发展产生了深远的影响。

霍普菲尔德的主要贡献与工作

理论创建:霍普菲尔德创建了一种名为 “霍普菲尔德网络” 的联想存储器。他从物理学中的自旋系统获得灵感,将节点和连接模拟为自旋系统,利用能量函数来保存和重构图像以及其他模式类型。这种联想记忆网络可以看作是一个由节点和连接组成的复杂系统,每个节点可以存储一个值,即使接收到模糊或不完整的输入,网络也能根据能量最小化原则重构出清晰的图像。这为后来的神经网络研究提供了重要的理论基础。

奠定基础:他的工作启发了后来神经网络的进一步发展,尤其是在模式识别、数据恢复等方面具有重要意义,为机器学习的发展奠定了基础。

辛顿的主要贡献与工作

方法发明:辛顿发明了一种可以自动发现数据中属性的方法,这对于机器学习中数据的处理和分析非常重要,能够让机器自动学习和识别数据中的特征,从而执行如识别图片中的特定元素等任务。

模型拓展:辛顿将霍普菲尔德网络的想法进一步应用和拓展,在 1985 年与计算神经生物学家特伦斯・谢诺夫斯基(Terrence Sejnowski)等人创建了玻尔兹曼机。这是一种基于统计物理学的新模型,通过优化玻尔兹曼能量函数来学习数据的概率分布。玻尔兹曼机的结构包括可见层和隐含层,经过训练后可以对新输入的信息进行识别和分类,还能生成新模式,在图像分类、推荐系统等方面具有广泛的应用。

持续推动:在 20 世纪 90 年代许多研究人员对人工神经网络失去兴趣时,辛顿仍然坚持在该领域探索,并在后续不断推动机器学习的发展,比如 2006 年他和同事开发了一种预训练网络的方法,为深度神经网络的发展做出了重要贡献。

-=||=-收藏赞 (0)

评论 ( 0 )

联系客服

关注公众号

qrcode

回顶部