「几何深度学习」从古希腊到AlphaFold,「图神经网络」起源于物理与化学
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
转自 | 新智元 编辑 |LRS
【导读】 最近大火的「几何深度学习」到底是怎么出现的?创始人Michael Bronstein发布系列长文,带你从头开始回忆。2016年,牛津大学教授、Twitter的图机器学习研究负责人Michael Bronstein发布了一篇论文,首次引入几何深度学习(Geometric Deep Learning, GDL)一词,试图从对称性和不变性的视角出发,从几何上统一CNNs、GNNs、LSTMs、Transformers等典型架构的方法。
论文链接: https://arxiv.org/pdf/1611.08097.pdf
比如传统网络认为E和3是不同的,但是具有镜像对称性(或π键旋转)的网络却会认为它们是一致的,而CNN则可以利用平移不变性等将右上角的3和中心的3视为等价,也就增强了泛化性。
最近,Michael Bronstein发起了四篇专栏文章,从古希腊几何到物理、化学,再到现代图神经网络,详细介绍了几何深度学习(GDL)背后的思想是如何出现的。
第一篇主要讨论对称性的概念如何促进理论物理学的发展,第二篇为神经网络的早期历史和第一个「AI寒冬」,第三篇主要研究第一个「几何」架构,第四篇讨论了1960年代化学领域中GNN的早期原型,下面是对第三、四篇的专栏文章翻译。
第一个几何架构
99科技网:http://www.99it.com.cn
