快了一个0!Meta祭出150亿参数蛋白质大模型,碾压AlphaFold2(2)
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
150亿参数的蛋白质语言模型
接下来我们就来具体说说Meta这款全新的ESMFold。 ESM-2是一个基于Transformer的语言模型,并使用注意力机制来学习输入序列中成对氨基酸之间的相互作用模式。 相对于上一代模型ESM-1b,Meta对模型结构、训练参数进行了改进,并增加了计算资源和数据。同时,相对位置嵌入的加入,使模型能够推广到任意长度的序列。 从结果来看,具有1.5亿个参数的ESM-2模型比具有6.5亿个参数的ESM-1b模型表现得更好。 此外,在结构预测的基准上,ESM-2也超过了其他的蛋白质语言模型。这种性能的提高与大型语言建模领域建立的规律是一致的。 随着ESM-2规模的增加,可以观察到语言建模的精度有很大的提高。
端到端的单序列结构预测
SMFold和AlphaFold2的一个关键区别是,ESMFold使用语言模型表示,消除了对明确的同源序列(以MSA的形式)作为输入的需要。 ESMFold通过用一个处理序列的Transformer模块取代处理MSA的计算昂贵的网络模块,简化了AlphaFold2中的Evoformer。这种简化意味着ESMFold的速度大大提高,远高于基于MSA的模型。 折叠主干的输出接下来又被一个结构模块处理,它负责输出最终的原子级结构和预测的置信度。 研究人员将ESMFold与AlphaFold2和RoseTTAFold在CAMEO(2022年4月至2022年6月)和CASP14(2020年5月)测试集上进行比较。 当只给单一序列输入时,ESMFold的表现要比Alphafold 2好得多。 而当使用完整的管道时,AlphaFold2在CAMEO和CASP14上分别达到了88.3和84.7。ESMFold在CAMEO上取得了与RoseTTAfold相当的准确率,其平均TM分数为82.0。
结论
研究人员发现,以无监督学习为目标的语言模型在一个大型的进化多样化的蛋白质序列数据库中训练,能够对蛋白质结构进行原子级的分辨率预测。 将语言模型的参数扩大到15B,就可以系统地研究规模对蛋白质结构学习的影响。 我们看到,蛋白质结构预测的非线性曲线是模型规模的函数,并且观察到了语言模型对序列的理解程度与结构预测之间的强烈联系。 ESM-2系列的模型是迄今为止训练的最大的蛋白质语言模型,其参数仅比最近开发的最大文本模型少一个数量级。 而且,ESM-2比以前的模型有非常大的改进,即使在150M的参数下,ESM-2也比ESM-1代语言模型在6.5亿的参数下捕捉到更准确的结构图。 研究人员表示,ESMFold性能的最大驱动力是语言模型。由于语言模型的迷惑性和结构预测的准确性之间有很强的联系,他们发现当ESM-2能较好地理解蛋白质序列时,就可以获得与目前最先进的模型相当的预测结果。 ESMFold获得了准确的原子分辨率结构预测,推理时间还比AlphaFold2快了一个数量级。 在实践中,速度的优势甚至还要更大。因为ESMFold不需要搜索和进化相关的序列来构建MSA。 虽说有更快的方法可以减少搜索时间,但再怎么减少还是可能会很长。 而推理时间的极大缩短带来的利好不言自明——速度的提高将使绘制大型元基因组学序列数据库的结构空间成为可能。 除了基于结构的工具来识别远端同源性和保护性之外,用ESMFold进行快速准确的结构预测,还能在大量新序列集合的结构和功能分析中发挥重要作用。 在有限的时间内获得数以百万计的预测结构,有利于发现对天然蛋白质的广度和多样性的新认识,并能发现全新的蛋白质结构和蛋白质功能。
99科技网:http://www.99it.com.cn

近日,MetaAI发布了NLLB-200模型,宣布在200多种语言(其中有70%是低资源语言)上
元宇宙2022-08-31

