「几何深度学习」从古希腊到AlphaFold,「图神经网络」起源于物理与化学(5)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
由于计算能力和可用的标注视觉数据量的快速增长,技术的天平被彻底打破,使得实现越来越大、越来越复杂的CNN成为可能,也使得解决越来越具有挑战性的视觉模式识别任务成为可能。
由美籍华人研究员李飞飞在2009年建立的ImageNet数据集,并随之举办的大规模视觉识别挑战赛在当时的计算机视觉领域掀起深度学习浪潮,其中包括数以百万计的人类标记的图像,参赛模型需要将其分为1000个不同类别。
Krizhevsky、Sutskever和Hinton在多伦多大学开发的一个CNN架构成功地以极大的优势击败了所有的竞争方法,如基于该领域几十年研究的智能工程特征检测器。AlexNet(为了纪念它的开发者Alex Krizhevsky)在参数和层数方面比它的前辈LeNet-5大得多,但从概念上来说是一样的。关键的区别在于使用图形处理器(GPU)进行训练。
ImageNet上CNN的成功成为深度学习的转折点,并在接下来的十年中预示了其广泛的应用前景,并衍生出了数十亿美元的行业,从Apple iPhone的语音识别到特斯拉自动驾驶汽车的商业系统中,深度学习无处不在。
当图神经网络遇上化学
如果说对称性的历史与物理学紧密地交织在一起,那么图形神经网络的历史,即几何深度学习的典型应用代表则植根于自然科学的另一个分支:化学。
99科技网:http://www.99it.com.cn
