David Baker、Demis Hassabis和John Jumper(从左至右)
其中,RoseTTA的研发者大卫·贝克(David Baker),堪称蛋白质设计领域“鼻祖级”人物,他从1993年进入这个领域,开发出了能直接根据氨基酸序列预测蛋白质结构的软件Rosetta,可谓从头开始设计全新的蛋白质,是这个领域最早的明星。这套算法在国际蛋白质结构预测评估大赛(CASP)上保持了多年的领先优势,直到被后起之秀——AlphaFold所超越。AlphaFold的设计者正是来自DeepMind团队的另外两位获奖者,德米斯·哈萨比斯(Demis Hassabis)和约翰·M·詹珀(John M. Jumper)。他们在2021年迭代出的AlphaFold2,更是已能成功预测98.5%的人类蛋白质结构,其准确性和实验结果相差无几。用诺贝尔化学委员会主席海纳·林克的话来说,“达成了生物化学家们50多年来的夙愿”。
“这都是诺贝尔不设数学奖的锅”“不仅物理学不存在了,化学也没了?”在连续两天的“错乱颁奖”后,各大学术群聊和贴吧内洋溢着“科学吃瓜”的饱满热情。在一片正经科普和幽默解读齐飞的喧嚣中,科学界也正持续见证着AI改变世界的浪潮。
“更大的图景上,科研范式的转变已来临”
南都:您怎么看今年的诺贝尔物理学奖颁给AI 领域的机器学习?
复旦大学计算机科学技术学院教授张军平:我相信这结果让大多数物理学家大失所望,毕竟物理学方面的成就也不少。自1901年首次颁奖开始,历届的物理学奖也从未给过其它专业的科学家。估计人工智能学者也同样大吃一惊。毕竟人工智能界的最高奖通常是图灵奖,而大家很熟悉的“人工智能”教父辛顿在2018年已经拿下了。
至于另一位获奖者霍普菲尔德,倒实实在在是物理学家,他主要的贡献是1982年提出的Hopfield网络。他的构想简单来说,就是假定按物理学讲的能量函数最小化来构造网络,这个网络一定会有若干个随能量波动最终稳定到最小能量函数的状态点,而这些点能帮助网络形成记忆。同时,通过学习神经元之间的连接权值等路径,该网络又具备一定的学习记忆和联想回忆能力。比如,如果神经网络接收到不完整或稍有失真的模式时,该网络能找到与之最相近的已存储模式。
另一个与物理相关的是,该网络的设计思路模拟了电路结构,假定网络每个单元均由运算放大器和电容电阻组成,而每一个单元就是一个神经元。
尽管从神经生理学角度来看,这个网络的记忆能对应原型说,每个神经元可以看成是一个具有某个固定记忆的离散吸引子(Discrete Attractor),但它的记忆是有限的,且不具备良好的几何或拓扑结构。所以当时来看不足还是很多的,便有了后续很多在此基础上提出的机器学习新方法。辛顿也在其列。
中科大合肥微尺度物质科学国家实验室副研究员袁岚峰:为什么发给这两位呢?当然可以说,他们的研究受到物理的启发,比如稳定的体系总是倾向于能量更低的状态。
也可以说,他们的成果对很多物理领域产生了影响,比如发现希格斯粒子,因为需要AI来筛选大型对撞机上产生的数以亿计的粒子碰撞记录;探测引力波,因为需要AI来排除各种各样的噪声,以筛选出那丝极其微弱的来自宇宙的引力波信号。这些都是诺贝尔奖主页上科普材料中所举的例子。
不过在我看来,更大的图景是,这表现了科研范式的转变。
AI for science时代
学科交叉迎来大爆发
南都:诺贝尔化学奖历来是最难预测的诺奖奖项。继诺奖物理奖爆冷AI后,化学奖AI再下一城,这背后是否预示了诺奖乃至科研界的什么趋势?
袁岚峰:我们经常说,计算跟理论、实验三者鼎足而立,都是一种标准的研究范式。这是因为计算模拟的结果跟纯理论相比,它是一种数值实验;而跟真正的实验相比,它又成理论了。所以通过计算模拟,能够发现以前无法想象的规律。
而现在明显的趋势就是,人工智能成了第四种范式。任何一个科学领域如果不跟AI结合一下,都不好意思跟人打招呼。很多人对AI的关心集中在“AI能不能超越人,会不会统治人类,我们离天网还有多远”这种哲学问题上,然后争论不休。但实际上,AI for science已经取得了很多实实在在的成果。
AI for Science的时代,交叉学科爆发,基础科学接纳并认可了机器学习这一潜能无限同时伴随着发散和不确定性的领域,新的科研范式正在形成并将带来深远的影响。
张军平:近年来,这一奖项越来越垂青交叉研究。以前有人说交叉研究就是A也做不好,B也做不好,才交叉。但从诺奖的情况来看,未来交叉研究才更容易产生大的突破和发现。
南都:本届化学奖主要是表彰AI对蛋白质结构预测及设计的颠覆性作用。那么AI的贡献主要体现在哪里?AlphaFold可能是AI变革科学的开始吗?
中南大学化工学院教授张冀:我自己就是AlphaFold的用户。AI确实在该领域意义重大,几个方面。
一在降本增效。传统的蛋白质结构测定方法依赖于实验技术,如X射线晶体学和核磁共振(NMR)光谱,这些方法既耗时又昂贵。基于深度学习模型的AI技术,特别是AlphaFold3,能够从大量已知蛋白质结构数据中快速学习规律,其预测的蛋白质结构已达到原子精度。与其他基于量化计算及分子动力学模拟的蛋白质预测的预测方法相比,所占用的算力资源非常少,计算速度快、准确率更高。二是拓宽技术边界,推动跨学科合作。David Baker教授的团队利用AI技术设计出具有特定功能的全新蛋白质,这些蛋白质在药品、疫苗、纳米材料和传感器等领域有广泛应用前景。同时展示了计算机科学与化学、生物学结合的巨大潜力,极大地扩展了技术路线的边界。三是加速新药研发。AI在精确预测蛋白质结构上的突破,为生命科学带来了前所未有的研究工具和方法,让科学家可以更好地理解疾病机制,设计出更有效的药物。
张军平:从AlphaFold到2024年5月提出的AlphaFold3,时间并不长,但却让蛋白质的结构预测能力从二级结构预测提升到了四级结构预测。由于深度学习能海量、高效解析蛋白质的结构,它大幅度降低了蛋白质结构的难度、人力和财力成本,使得大多数蛋白质结构的预测变得简单快捷,仅留少量仍需通过实验来探索。
它对科研的变革意义在于,生命科学家们今后可以将重心从蛋白质结构的预测,转到蛋白质的功能预测上。这对于探索人类和其他生物的生命密码尤其重要。
袁岚峰:蛋白质折叠是给定氨基酸序列,预测蛋白质结构;而蛋白质设计是希望蛋白质有某种功能,从而有某种结构,然后问什么样的氨基酸序列会产生这样的结构。所以蛋白质设计比蛋白质折叠更难,当然也更重要。在这方面,中科大生命科学与医学部刘海燕教授等人有很有意思的成果,2022年在《Science》上就发过文章。新闻说他们建立了“新的蛋白质从头设计方法”,属于“关键核心技术的原始创新”,这么高的评价非常罕见。这就是AI for science的典型应用。
AI让科研者失去饭碗?
“原始创新依然取决于人类的引导”
南都:在今年诺奖科学奖的角逐里,AI已经出尽了风头。亦有热评担忧称,未来科研将不需要人类科学家了,对此您怎么看?
张军平:从今年诺贝尔理化双奖的得奖情况,和人工智能近年来对几乎全学科、所有领域的融入程度来看,未来能很好运用AI的研究者,相比拒绝拥抱AI的人,的确能更有效地工作生活,更有可能形成新的重要发现,甚至争夺各个方向的诺贝尔奖。我们已经进入一个大批量数据学习的时代,这个时代没有AI是不行的。
但与此同时,就拿这次化学奖来说,AlphaFold系统还存在不少不足,并不能完全取代生命科学家。况且,生命科学也远不止蛋白质功能预测这么简单,还有相当多的任务需要完成。其中不少内容无法进行海量标注,也无法将其纳入到当下流行的大模型框架,尤其是复杂的生物关系网。
南都:您怎样看待AI for science的影响力?未来的科研者有可能会对AI形成依赖、变成“懒汉”吗?
张军平:人工智能并非无所不能。只是目前可能会因为拿了两个奖,让大家会觉得它很厉害。 我们还是要学会发挥人类的潜力,尤其是长程关系之间的思考,还有灵感、顿悟、独特视角,这些都是人工智能做不好的。 过份依赖,确实会变懒汉。
张冀:AI在科学研究中的影响力是显著且多维的。它不仅提高了研究效率,还推动了科学发现和创新。AI的应用被视为推动科学进步的核心驱动力之一,它通过机器学习技术帮助科学家处理大规模数据集,发现新的科学现象,这种跨学科的结合,恰恰是现代科学研究的大趋势。
关于是否会对AI形成依赖,变成“懒汉”,有研究显示,AI可能导致学生和教师逐渐失去自己动手做任务的兴趣和决策能力。然而,这并不是AI本身的问题,而是我们人类如何使用AI技术的问题。
需要强调的是,AI本身并不具备独立解决问题的能力,更多地是对已有方案的优化。此外, AI运行的效率和成功率极大地取决于人类的引导,原始创新的工作目前仍需依靠人类的科学家取得突破。目前的AI只能作为辅助工具,并不能替代人类对其认知范围(数据库)外的突发问题做出独立的思考和决策。
采写:南都记者吕虹
魔法小精灵 | 8天前 |
速度快,效果好! |
习惯成瘾成癖 | 2天前 |
在使用这个app的过程中,我发现它的流畅度真的很出色,让我能够畅快地享受使用体验。 |
幸福小天使 | 2天前 |
虽然这个app的功能很多,但是有些功能的使用方式不太直观,需要花时间去学习。 |
快乐小精灵 | 2天前 |
速度快,效果棒! |
天空之城 | 4天前 |
最好,没有之一 |
风吹叶落的荒凉@ | 8天前 |
操作简单,上手快! |
偶尔快乐 | 9天前 |
这个app的流畅度绝对是一流的!每个功能都能够快速响应,让我觉得非常顺畅。 |
温柔小仙女 | 9天前 |
好用极了 |
暖风入怀 | 8天前 |
非常好用的app,让我省去了很多麻烦,非常满意! |
那年今日的 | 2天前 |
界面设计丑陋不堪,操作也不流畅,使用起来非常不舒服,根本无法接受! |