资讯详情

MIT Technology Review 2022年“全球十大突破性技术”解读

1a8ebf06e60442220a922a5a11d67f81.jpeg

自2001年起,MIT Technology Review每年都会选择年度世界十大突破性技术。当年出现的许多技术深刻改变了我们的生活,促进了人类社会的进步。2022年2月23日,MIT Technology Review年度全球十大突破性技术包括:终结密码、新冠肺炎变异跟踪、长期电网储能电池、新冠肺炎口服药、除碳厂等。这些科技突破代表了当前科技发展的前沿和未来方向,为了让读者深入了解科学价值及其背后的科学故事,中国科学基金编辑部特别邀请各领域著名科学家对十突破技术九分别进行深入解读,促进科技资源科普,构建科学普及和科技创新两翼新模式。

20世纪60年代的口令(Password,最早被图灵奖得主费尔南多称为密码·大型机器本地文件访问控制采用科尔巴托教授。20世纪90年代,互联网开始进入千家万户,密码也被广泛应用于互联网世界。随着用户网络账户的增加,用户倾向于使用流行密码,在密码中使用个人信息,在多个账户中重用密码,造成严重的安全风险。自2000年以来,提出了数百个新的身份认证方案。其中,无口令(Passwordless)近年来,年来受到企业的青睐,如谷歌、苹果、微软等公司,为用户提供身份认证方案,无需输入密码即可登录应用程序和服务。在无密码身份认证方案中,用户要么拥有带摄像头或指纹识别器的移动设备,并安装相应的身份认证应用程序;用户要么拥有存储身份认证所需密钥和算法参数的特殊硬件设备(如U盾)。目前,无口令身份认证方案仍处于初级阶段,面临可扩展性低、部署成本高、隐私泄露等挑战。在可预见的未来,密码仍将是最重要的身份认证方法。无密码方案可能会减少普通用户对密码的直接接触,但密码仍然保护我们的网络和信息安全。

王定:南开大学网络空间安全学院教授、密码科技系主任、天津网络与数据安全技术重点实验室副主任、数字身份安全研究方向。在第一作者(或通讯作者)中IEEE Symposium on Security and Privacy、IEEE Transactions on Dependable and Secure Computing 出版论文80多篇。研究导致美国身份认证标准NIST SP800-63-3的修改。中国计算机学会获教育部自然科学奖一等奖(CCF)优秀博士学位论文奖、ACM中国优秀博士论文奖和中国密码学会优秀青年奖。

西安电子科技大学网络与信息安全学院教授,国家高层次人才,互联网基金会网络安全优秀教师。密码学和云计算安全是主要研究领域,在重要的国际会议和期刊上发表了200多篇学术论文。担任IEEE Transactions on Dependable and Secure Computing、IEEE Transactions on Knowledge and Data Engineering 等待著名国际期刊的编辑,Asia Conference on Computer and Communications Security 2016、International Conference on Network and System Security 2014 会议主席等多次国际会议。2019年教育部自然科学奖二等奖,2016年中国密码学会密码创新奖。

西安电子科技大学网络与信息安全学院教授、国家高水平人才、互联网基金会网络安全人才、网络与信息安全教育部创新团队领导、陕西省网络与信息安全三秦学者创新团队领导。西安电子科技大学计算机学院院长、网络空间安全系主任。陕西省网络安全与信息化专家咨询委员会副主任,国务院学位委员会网络空间安全学科评估小组成员。两次获得国家技术发明奖二等奖,作为第一完成人。

身份认证是保证网络安全的第一道防线,密码(Password,坊间称为“密码”)是最常用的身份认证方法。近年来,频繁的大规模密码泄露为黑客和犯罪分子破解用户的账户密码提供了稳定的材料,引起了人们对密码安全的担忧。在这种情况下,美国Okta 和 Duo微软、谷歌等面向企业用户的公司为个人用户提供了无需输入密码即可登录应用程序和服务的身份认证方案,引起了社会的广泛关注,并入选MIT Technology Review 十大突破性技术。

其实这是终结口令的第二波。口令最早在20世纪60年代开始在大型机上使用[1],设计初衷是用来控制大型计算机上本地文件的访问权限,避免分时操作系统的时间片滥用问题。自20世纪90年代以来,互联网服务(如电子邮件、电子商务、社交网络)蓬勃发展,密码已成为互联网世界保护用户信息安全的主要手段之一。随着用户密码账户的增加,为了便于记忆,用户倾向于使用流行密码、个人信息(如姓名、生日)、直接重用或简单修改密码,导致严重的安全风险[2、3]。另一方面,攻击者的计算能力不断提高。在此背景下,自2000年以来,提出了数百个新的身份认证方案。

早在2004年,时任微软董事长的比尔·盖茨宣布微软将不再使用密码[4],这引发了第一波终结密码。微软和当时世界上最大的安全公司RSA合作开发了一种名称SecurID这种技术本质上是一种硬件设备 验证码双因子认证。与此同时,微软也开发了一种名为tamper-resistant”的生物ID卡识别技术的本质是生物特征 双因素认证的硬件设备。随后,学术界也指出了安全密码不能记住,可以记住密码不安全等问题,提出了基于生物特征、行为特征、图形密码认证和单点登录[5]等各种新的身份认证方法。

出乎意料的是,2004年的终结密码浪潮在2009年左右逐渐悄然消失。密码的地位没有动摇,而是被广泛使用。平均账号密码数量也从2007年的25个增加到2020年的80个左右。这引起了学术界的反思。在数字世界中,信任不会凭空产生,身份认证是建立信任的主要环节。身份认证方法有上百种,但基本手段可分为以下三类[56]:(1)基于用户的知识,如密码;(2)基于用户的所有权,如U盾;(3)基于用户的所有权,如生物特征。这些试图取代密码的新方法有的在安全性上优于密码,有的擅长可用性,但几乎都比密码差,安全性、可用性和隐私保护几乎难以平衡。因此,自2012年以来,学术界逐渐形成共识[5-7]:密码在可预见的未来仍将不可替代。

自2015年以来,学术界逐渐认识到,除了用户因素外,密码安全问题的另一个原因是服务运营商缺乏安全保障。长期以来,运营商一直将保护密码的责任推给用户,并在最基本的密码策略设置、密码强度评价和密码存储安全方面穿着皇帝的新衣服[7]。近日,微软、谷歌、苹果等公司加强了密码安全防护措施,即将为用户提供身份认证方案[8],无需输入密码即可登录应用和服务。在这些无口令方案中,用户要么拥有带摄像头或指纹识别器的移动设备(如智能手机、平板电脑等),并安装相应的身份认证应用程序(如微软)Authenticator App);或者用户有特殊的硬件设备(如支持)FIDO2 可识别指纹的识别指纹),存储身份认证所需的密钥和算法参数。此外,这些计划仍然密码(或PIN代码)作为生物特征识别失时的应急选项。

由此可以看出,当前无口令身份认证方案仍处于初级阶段,存在明显的缺陷:一方面,仅在大型公司的少数平台和设备上应用(如iOS 16上或Win 10以上),不考虑旧版本的系统和不使用智能手机的人;另一方面,由于需要特定版本的系统或平台,部署成本高,隐私泄露的风险是由于生物特征的不可改变。此外,无口令认证方案降低了用户对身份的控制,52%的被调查用户表示不接受将信任链传递给手机等设备。此外,无密码认证方案降低了用户对身份的控制,52%的被调查用户表示不接受将信任链传递给手机等设备。截至2022年2月,微软云服务企业78%的用户仍只使用账号名和密码登录,只有22%的用户使用基于密码的多因素认证或密码[9]。

综上所述,在可预见的未来,密码仍将是最重要的身份认证方法之一,基于密码的认证技术仍然是不可替代的。未来,随着密码解决方案的不断成熟,在某些情况下(如使用智能手机)用户可能会减少密码的直接接触,但密码不会消失,这仍然是一种应急认证手段,将保护我们的网络和信息安全。

图1 本次入选终结口令技术MIT Technology Review 2022年全球十大突破性技术(图片来源:MIT Technology Review 官网)

2019年新型冠状病毒(SARS-CoV-2)仍在全球传播。这场全球疫情使病毒基因组测序受到前所未有的资金青睐,大大扩大了全球监测和预警此类病毒的能力。2021年11月,南非一家实验室的测序员首次发现了一个50多个突变病毒基因组出警示信号,几乎在瞬间,西雅图、波士顿和伦敦的计算机都在利用这些数据做出预测:这种被命名为Omicron的新冠病毒变异体是个麻烦,它是一种可能逃避抗体的病毒突变体。科学家们借助于基因测序、分析技术,可绘制出SARS-CoV-2的基因组图谱,可监测病毒传播过程中基因组发生的变化,并可进一步地快速发现并警告新的病毒变异体,如阿尔法(Alpha)、德尔塔(Delta),以及最近出现的奥密克戎(Omicron)。其中,Omicron被认为是迄今为止变异程度最高的病毒变种。这一项史无前例的努力,使SARS-CoV-2成为历史上接受基因测序最多的生物体,超越了流感病毒、人类免疫缺陷病毒(Human Immunodeficiency Virus,HIV)甚至人类基因组,极大地提高了全球对此类病毒的监测、传播跟踪与预警能力。

北京大学生命科学学院教授、博士生导师,教育部长江学者特聘教授,国家重点研发计划重点专项首席科学家。目前担任Science Bulletin 和Molecular Biology and Evolution 的副主编、中华预防医学会生物信息学分会委员和北京市生物信息学会理事。研究方向为分子进化和基因组学,长期致力于群体遗传学、进化基因组学和基因表达调控等领域的研究。参加中国—世界卫生组织新冠病毒溯源联合研究,获得全国科技系统抗击新冠肺炎疫情先进个人称号。

中国医学科学院/协和医学院病原生物学研究所研究员,博士生导师,国家病原微生物实验室生物安全专家委员会委员。长期从事冠状病毒入侵、复制以及致病机制研究。

中国医学科学院系统医学研究院、苏州系统医学研究所研究员,北京协和医学院博士生导师。获得全国科技系统抗击新冠肺炎疫情先进个人称号、中华医学科技奖二等奖和江苏省“双创人才”等奖励。研究方向为传染病生物信息学,专注于开发新型计算方法,建立病毒性传染病的生物信息分析框架,系统进行新发突发病毒的发现溯源、变异进化和免疫评估等。主持或参与了国家重点研发计划、国防科技创新特区和国家自然科学基金等多项国家级科研项目。

新型冠状病毒传播引发的疫情给全球经济和公共卫生带来了极大的破坏。作为一种RNA病毒,新型冠状病毒在流行过程中必然会不停地发生变异,导致新的变异株不断涌现。世界卫生组织已经定义过5个密切关注变异株(Variant of Concern, VOC),分别是阿尔法(Alpha)、贝塔(Beta)、伽玛(Gamma)、德尔塔(Delta)和奥密克戎(Omicron)。快速积累的大量病毒基因组,为大流行期间病毒的持续演化和流行病学研究提供了宝贵的数据基础。

对新冠病毒不同变异株进行科学的谱系划分和演化动态追踪,不仅有助于流行病学的调查和疫情精准防控政策的制定,对病原体检测,临床诊断,疫苗和治疗药物的研发以及有效性评估也具有不可估量的重要意义。在新冠疫情暴发早期,新冠病毒基因组序列还非常有限的情况下,我国科学家就开展了新冠病毒基因组分型和谱系划分的系统研究。例如,我国科学家准确地将新冠病毒分为L和S两个主要谱系,推测S谱系较为古老,而L由S谱系进化而来。进一步的研究发现早期病例中S谱系病毒感染者中危重症比例显著高于L谱系病毒感染者。为了便于追踪不同谱系病毒演化流行过程和特征,进一步构建了新冠病毒分层次谱系划分系统,绘制了完整的反映各个谱系之间亲缘关系的单倍型网络图,揭示谱系演化关系,并建立新冠病毒谱系时空动态分布的可视化平台(www.covid19evolution.net)。当前世界卫生组织定义的VOC变异株均是L谱系的分支谱系。S和L谱系分别对应Pango Lineage分型系统的A型和B型。S和L谱系划分已被科学界广泛接受和认可,并被全球禽流感基因共享数据库(GISAID)数据库、国家基因组科学数据中心、中国疾病预防控制中心以及《中国—世界卫生组织新冠病毒溯源联合研究》中英文报告所采用。

我国科学家还发现,新冠病毒感染人数的不断增加会加速新冠病毒变异的适应性演化,从而形成正反馈循环。庞大的全球感染人群,为新冠病毒的位点突变、片段插入/删除以及基因重组等基因组结构变异等提供了巨大空间。在可预期的一段时间内,新冠病毒将会与人类共存。因此,对病毒变异规律的及时解析和谱系演化动态的及时追踪仍然非常重要。如何科学地预测病毒的变异趋势,对可能造成大流行的高风险株做到有效的先期预警尤为重要。早期新冠病毒变异的功能选择主要表现为传播力、受体结合能力以及病毒复制能力的增强。但是,在奥密克戎变异株高传播力的背景下,突破性感染不停发生,感染人群比例不断升高,病毒多样性持续扩大,免疫逃逸已经成为新冠病毒变异的主要驱动力。因此,如何在疫苗接种和突破感染形成的复杂免疫选择压力下,预测新冠病毒变异趋势和流行动态将会是一个充满挑战但又亟需解决的重要科学问题。GISAID已经收录了超过1 000万条新冠病毒全基因组序列及部分样本的采集信息,基因组序列的超复杂性也为监测和分析新冠病毒演化趋势提出了巨大挑战。开展病原学、免疫学、结构生物学、群体遗传学、分子演化以及计算生物学等多学科的合作,结合人工智能和机器学习等新兴技术可能是解决这一问题的有效途径。

图2 SARS-CoV-2病毒是地球上被测序最多的生物体,极大地增强了全球对此类病毒的变异追踪与预警能力(图片来源:MIT Technology Review 官网)

2021年4月,可再生能源打破了加利福尼亚州主电网的纪录,提供的电力足以满足94.5%的需求,这一时刻被誉为低碳化道路上的一个里程碑。我们使用的可再生能源比以往任何时候都多。然而,可再生能源带来的波动式电力需用一种廉价且长时(数小时甚至数天)的储能电池保存,以备日后使用。新型的铁基电池有望胜任这一任务。总部位于俄勒冈州的ESS公司,其电池可实现4至12小时的储能,并在2021年推出了其第一个电网规模的项目。总部位于马萨诸塞州的Form Energy公司称其电池可储存电能长达100小时,他们在2021年筹集了2.4亿美元,在明尼苏达州安装一兆瓦级别的储电工厂,预计2023年完成。这两家公司都选择使用铁基电池,而铁是地球上最丰富的材料之一。这意味着他们的产品最终可能比锂离子电池和钒系液流电池等其他储能电池更便宜。Form Energy公司表示,其电池最终的成本可能仅为20美元/千瓦时,甚至低于未来几十年对锂离子电池成本的乐观预测。但铁基电池也存在一些技术挑战,如它们的效率通常较低,这意味着投入其中的相当一部分能量无法被回收;此外,副反应也会随着时间的推移而使电池退化。但如果铁基电池能以足够低的成本被广泛安装使用,便可以为更多人提供来自可再生能源的电能。

中国科学院长春应用化学研究所稀土资源利用国家重点实验室主任,国家杰出青年科学基金获得者。致力于能源存储与转化研究,目前主要聚焦于金属—空气电池、新型离子电池与能源电催化方面的关键材料设计和高性能器件研制,开发了具有完全自主知识产权的锂空气电池器件。在Nature Chemistry、Nature Energy 等国际权威期刊上发表论文200余篇,主编国际专著1部。授权发明专利20件。2019年获吉林省自然科学奖一等奖。

未来在以可再生能源为主体的新型电力系统中,可再生能源的比例将超过50%,这必然会要求储能设施具备十几个小时乃至几天的储能时长,以满足吉瓦(Gigawatt, GW)级别的再生能源并网和长时间削峰填谷的需求。然而,在目前的储能电池技术水平下,锂离子电池储能时长以2小时居多,部分已经提升至3到4小时,但要达到6小时及以上的储能时长则会面临成本与产品安全等方面的诸多挑战。因此,低成本、长时储能电池的发展将成为电力系统转型的关键。

此次入选2022年MIT Technology Review “全球十大突破性技术”的水系铁基电池是基于廉价和储量丰富的铁元素构筑的,其具有高安全性和环境友好等特征。其中,美国俄勒冈州ESS公司的铁基液流电池以氯化亚铁为正负极电解液,通过电解液中铁离子的氧化还原实现电能的储存和释放,可实现长达20 000次的稳定循环。此外,该液流电池的储能活性物质与电极完全分开,功率和容量设计互相独立,便于模块组合设计和电池结构放置,其电网规模的储能模块可以实现4至12小时的能量储存。不同于液流电池,Form Energy公司的铁—空气电池是一种静态电池,其基本原理是基于铁的可逆氧化(生锈),可持续多达10 000次的循环。相比于铁基液流电池,铁—空气电池的储能容量更大,其可储存电能长达100小时(约可为电网提供超过4天的电力),这种电池将使具有成本效益的“多日储能”成为可能。上述两种铁基电池在大规模储能方面均具有明显的优势:超长循环寿命、高安全稳定性、可扩展性、低成本和绿色环保,可平衡可再生能源发电的波动式变化,实现低碳长时电网储能。

铁基长时电网储能电池的发展,可以弥补锂离子电池的一些不足,以科技创新的方式将电力系统从化石燃料发电转变为可再生能源发电,有利于在全球范围内减少碳排放,实现低碳电网碳的发展和碳中和的终极目标。然而,除了长时电网储能电池外,还有一些其它可以提供稳定电力服务的能源组合(核能、化石能源+碳捕捉与封存技术、氢能等)与之竞争,这些技术未来的发展,也会在一定程度上左右长时储能电池在电网中的占比。此外,与其他储能技术的发展一样,长时储能电池从研发、示范、落地到规模化,一路上必将面临产能、供应链、建设、运营等多方面的挑战,必须严格控制每一环的风险,才能实现既定的成本目标。

我国的长时电网储能技术以全钒液流电池为主,其已经过十多年的示范考核,并且其大规模储能的工程效果已得到了充分的验证,产业配套成熟,可支撑起百兆瓦级储能项目的设计与开发。此外,全钒液流电池系统的单瓦时成本已可控制在2~3元的水平,具备了商业化应用的条件。2018年以来,我国液流电池的装机量呈现爆发式增长。其中,2020年规划的液流电池装机量超过6 GW,容量超过20 GWh。与此同时,单个项目的规模也在不断提升,如200 MW/800 MWh的全钒液流电池示范项目。整体而言,我国液流电池的产业研究和技术工艺处于国际领先水平,特别是国内液流电池的龙头企业,大连融科在海外市场的拓展也在如火如荼地进行。然而,全钒液流电池的低能量密度和钒高昂的价格,需要我们开发更具价格和能量密度优势的新型长时电网储能技术。

储能作为“双碳”背景下构建低碳电网的关键组成部分,跨天、跨月乃至跨季节的长时电网储能系统的发展迫在眉睫。目前长时储能技术仍处于百家争鸣的中早期研发示范阶段,孰胜孰劣尚未揭晓。电化学储能由于动力电池产业的推动,不受地理环境的制约,暂时处于比较有利的竞争地位。未来电网储能系统的发展需要以模型数据开源、学术产业结合等方式集思广益,甄选出最具经济可靠性的电源储能配置方案,形成多能互补的,新能源+储能的电力系统,为实现“双碳”目标提供强有力的支撑。

图3 廉价、储能持久的铁基电池有望分摊可再生能源的供应压力,并扩大清洁能源的使用范围(图片来源:MIT Technology Review 官网)

作为生命体最重要的功能载体之一,蛋白质在众多生命活动中发挥着关键的作用。蛋白质在行使功能时往往需要折叠成特定的三维结构,因此对蛋白质结构的测定和解析不仅能帮助人们在分子层面上理解大多数生命活动的机理,而且可以有效辅助基于结构的药物开发以及相关疾病的诊治。目前通过实验手段解析蛋白质结构费时费力,远远无法满足现实需求。2020年底,谷歌重组后的“伞形公司”Alphabet旗下名为DeepMind的人工智能实验室采用多种深度学习技术,开发出了一款名为AlphaFold2的软件,能根据蛋白质的氨基酸序列准确预测其三维结构。该软件使用一种称为深度学习的人工智能技术,可以预测蛋白质的形状,甚至精确到原子。由于大多数蛋白质的氨基酸序列已知,该软件可以在数个小时内提供目标蛋白质原子分辨率的结构信息,而且其预测的结构模型准确度很高,在很多蛋白上可以与实验解析的真实结果媲美。世界各地的科学团队已经开始使用它来研究癌症、抗生素抗性和新冠病毒。2022年,该技术被MIT Technology Review评选为“全球十大突破技术”之一。

清华大学生命学院副教授,博士生导师,生物信息学教育部重点实验室副主任。2009年加入清华大学生命学院,主要从事蛋白质结构相关的计算方法研究。近年来的研究兴趣主要集中在结合人工智能技术发展蛋白质结构预测算法和分子模拟的采样方法,以通讯作者身份在Nature Machine Intelligence、Advanced Science、Bioinformatics、PLoS Computational Biology、Journal of Chemical Theory and Computation 等计算生物学主流期刊上发表多篇论文。近5年主持国家自然科学基金项目3项。

生命体中的主要生命活动都通过蛋白质分子完成,因此理解单个蛋白质分子的工作机理至关重要。蛋白质的多肽链是由氨基酸顺序连接而成的线性分子,它往往折叠成特定的三维结构来行使功能。换言之,蛋白质的序列决定结构,而结构又决定功能。自20世纪五六十年代起,蛋白质序列、结构与功能间的关系就一直是生命科学的核心问题。作为这一信息链条的中心点,蛋白质结构既可以帮助人们理解生命活动的分子机理,也能有效地辅助蛋白质设计和基于结构的药物设计,因而结构解析已经成为生物物理领域最重要的研究方向之一。过去二三十年来,结构生物学取得了长足进展,包括蛋白质晶体学和冷冻电镜等技术的快速发展,使得人们可以较为快速地测定生物大分子的三维结构。目前蛋白质结构数据库(Protein Data Bank,PDB)中已经积累了超过18万个分子的结构。但是,总体而言,蛋白质结构的实验测定仍然较为耗时,往往至少要耗费数月时间。此外,由于新一代测序技术的发展,蛋白质序列的积累速度远远大于结构解析的速度。目前蛋白质序列库中的蛋白质数目已经超过结构数据库3~4个数量级,这一差距无法通过实验方法弥补。

根据安芬森法则(Anfinsen’s dogma),大多数球状蛋白的三维结构由氨基酸序列唯一决定。自20世纪八九十年代起,人们就开始发展计算机算法,通过研究序列和结构间的关系,根据氨基酸序列预测蛋白质的三维结构。1994年,约翰·莫尔特(John Moult)等人组织了第一届国际蛋白质结构预测评估竞赛(Critical Assessment of protein Structure Prediction, CASP),用于系统评测各种计算方法的预测准确性。该竞赛每两年举办一次,组委会收集未发表的结构数据,对参赛者发布其序列信息,然后收集其预测结果进行双盲评估。CASP竞赛极大地促进了蛋白质结构预测领域的发展。在早期CASP竞赛中,发展的基于模板的建模方法Modeller以及基于统计和物理模型的建模方法Rosetta和I-TASSER等程序,结合物理知识和对结构数据库的统计分析,可以对某些特定蛋白提供较为准确的预测模型。但是,随着实验解析蛋白质数目的快速积累,这些方法的预测性能并未显示出相应提升,反而达到了瓶颈。2015年,克里斯·桑德斯(Chris Sanders)等人提出可以从多重序列比对中获得氨基酸残基间的共进化关系,从而为结构预测提供额外信息。2016年的CASP12竞赛中,许锦波等人提出的RaptorX程序,首次使用深度卷积模型,根据多重序列比对预测氨基酸残基间接触,再根据预测结果折叠蛋白,从而显著提升了结构预测的平均准确率。其后,人工智能方法开始广泛介入蛋白质结构预测领域。2018年的CASP13竞赛中,DeepMind发展的 AlphaFold采用了类似的方案预测残基间距离并根据预测距离折叠蛋白。其后的大多数方法也主要沿这一思路进行。2020年CASP14竞赛前,人们发现这类方法的性能并不能随模型参数量增加而继续提高,而且这类深度学习模型的预测准确性离现实需求尚有一段难以跨越的距离。但是,在2020年底CASP14结果公布时,DeepMind提出的AlphaFold2算法远远超越了其它深度学习模型,对绝大多数目标蛋白都可以提供高度精准的预测模型。对有些蛋白质而言,AlphaFold2预测的结果与实验解析的模型高度相似,甚至仅根据实验数据都很难区分孰优孰劣。这一结果也震惊了整个科学界。

后续的报告和论文显示,DeepMind在设计AlphaFold2时完全摒弃了第一代 AlphaFold 的架构,规避了残基间接触或距离的预测,采用了一种全新的端对端模型直接根据序列预测结构。这一设计不仅能加快预测速度,而且可以有效抑制中间过程中的误差积累。此外,DeepMind采用了近年来自然语言处理领域较流行的Transformer架构。与以前常用的卷积架构不同,这种基于注意力机制的模型允许所有氨基酸残基在每一步操作中发生信息交互,能更好地模拟蛋白质折叠过程中的残基间相互作用。最后,AlphaFold2还使用了重循环和自蒸馏等工程技术,进一步有效提升了预测准确率。总之,在AlphaFold2中,DeepMind通过具有高度创新性的深度学习网络架构设计,初步解决了蛋白质结构预测(或折叠)这一困扰人类50年之久的科学难题,也因此入选MIT Technology Review评选的2022年“全球十大突破技术”。

AlphaFold2的提出显然对生命科学有巨大的促进作用。一方面,它能够快速准确地根据氨基酸序列预测蛋白质的三维结构,因此可以有效弥补现有结构生物学技术的缺陷。另一方面,通过对AlphaFold2的进一步研究,人们可以更好地理解蛋白质序列和结构间的映射关系。目前已有很多研究组开始把 AlphaFold2应用于药物开发和蛋白质设计领域。比如,清华大学的张林琦和彭健合作,通过进一步优化的AlphaFold2模型预测抗原和抗体的结合能,并根据预测结果优化抗体设计,最终开发出我国首款新冠特效药。2021年,DeepMind与EBI合作,建立了基于 AlphaFold2 预测结果的数据库AlphaFold DB。该数据库中已经储备了近一百万蛋白质的预测结构,为生命科学各个领域的科学家们提供重要的蛋白质结构信息。这一行为很可能会改变很多领域的科研范式,促进分子层面的研究从以序列为基础转变为基于序列和结构的研究,从而加快生命科学定量化的步伐。

当然,AlphaFold2还有一定的局限性。首先,它在很多蛋白上的预测精度还有待进一步提高,目前还不能完全满足药物开发等领域需要的结构精度,特别是对蛋白质复合体的预测精度较低。因此,AlphaFold2还不能完全替代结构生物学研究。其次,AlphaFold2模拟的是从多重序列比对到三维结构的映射关系,并没有解决从单一序列到三维结构的映射关系,因此蛋白质折叠问题还没有完美解决。最后,也是最重要的一点,针对一个特定的目标蛋白,AlphaFold2仅提供有限的结构模型,不能揭示其结构的动态变化。而动态结构才是真正决定功能的基础。

无论如何,AlphaFold2的提出展示了人工智能技术对生命科学研究的巨大促进作用。在蛋白质结构预测领域,预计人工智能技术将继续引领后续的进展,解决目前AlphaFold2的局限性:(1) 提高蛋白质复合体的结构预测精度;(2) 发展根据单一序列预测蛋白质结构的人工智能算法;(3) 根据氨基酸序列预测蛋白质的动态结构。

我国在蛋白质结构预测领域的基础整体上还比较薄弱。近年来虽然有多个学术研究组在残基间距离预测、能量函数构建和模型质量评估等子领域做出了原创性的工作,但是由于学术研究组的规模和资金有限,还没有形成完整的自主研发的程序算法,能达到与AlphaFold2持平的程度。但是,目前已有企业(如深势科技、华深智药、腾讯、百度、华为等)牵头的研发小组以AlphaFold2为模板进行二次开发,并取得了一定的成绩。考虑到人工智能技术的飞速发展,我国在这一领域还有极大的潜力。希望在不久的将来,我国能通过多个学术研究组的联合攻关,或企业和高校的合作研发模式,开发出原创性的、具有完全自主知识产权的蛋白质结构精准预测算法。

图4 人工智能实验室DeepMind开发的 AlphaFold2 软件初步解决了蛋白质结构预测这一科学难题(图片来源:MIT Technology Review 官网)

寄生虫是复杂的多细胞生物,其基因组比大多数病毒和细菌中的基因组大500~1 000倍。使其能够通过无数种方式的基因突变来躲避人体免疫系统的监视。疟疾是疟原虫所引起的严重危害人类生命健康的寄生虫病。其主要集中在撒哈拉以南的非洲地区,该地区的病例约占全世界的95%。每年有60多万人死于疟疾,其中大部分是5岁以下的儿童。2021年10月,世界卫生组织批准了世界上第一种对抗由蚊子传播的致命疾病的疫苗—疟疾疫苗。然而,这款由葛兰素史克公司研发的疟疾疫苗,RTS,S或Mosquirix,被认为不是一种特别有效的疫苗。它需要在5至17个月大的儿童中接种三剂,并在12至15个月后接种第四剂。此外,在肯尼亚、马拉维和加纳的80多万名儿童中,这种疫苗在第一年对严重疟疾的有效率约为50%,而且随着时间的推移,其疗效急剧下降。即便如此,公共卫生官员仍将这种自1987年就开始测试的疫苗誉为非洲的“游戏改变者”,主要原因是当其与其它疟疾控制措施(包括驱虫蚊帐和在雨季使用的预防药物)结合使用时,有望将疟疾死亡人数减少多达70%。Mosquirix作为第一个被批准用于寄生虫病的疫苗,旨在敲响免疫系统的警钟,保护潜在的宿主免受感染,对鼓励创新以及下一代疟疾疫苗的开发具有重大意义。

中国科学院上海巴斯德研究所副所长,上海科技大学特聘教授,国家杰出青年科学基金获得者,国家重点研发计划项目首席科学家,美国国立卫生研究院(National Institute of Health,NIH)R01项目首席。曾获湖北省科技进步奖二等奖、上海市科技系统先进个人、中国科学院优秀教师“朱李月华”奖等奖励和荣誉。长期致力于恶性疟原虫致病的表观遗传学机制研究,首创了恶性疟原虫表观遗传基因编辑技术,揭示了恶性疟原虫免疫逃逸的调控网络,阐明了线粒体功能抑制的表观遗传机制,鉴定到一批具有药物开发潜力的表观遗传靶点,其中一种小分子候选药物已进入临床前研究。

RTS, S/AS01(RTS,S)是全球首款获得世界卫生组织(World Health Organization,WHO)批准的疟疾疫苗。它是恶性疟原虫环子孢子蛋白CSP的C-末端序列(包括NANP抗原重复序列和T细胞表位序列)与乙型肝炎病毒表面抗原(HBsAg)融合、组装成病毒样颗粒结构的亚单位疫苗,并通过新型脂质体免疫佐剂AS01增强疫苗的免疫原性。自2021年10月起,RTS, S/AS01获批在非洲疟疾传播的中、高风险地区5月龄以上儿童中使用。

疟疾是严重危害人类健康的全球三大传染病之一。随着青蒿素等各类抗疟药的临床耐药性问题日益加剧,目前全世界仍有近一半人口面临疟疾感染风险。致死性最强的恶性疟疾原虫每年造成2亿~3亿的感染病例和近60万的死亡病例,是实现“人类卫生健康共同体”目标的关键阻碍之一。21世纪以来,全球每年约有10项疟疾疫苗项目获批开展临床试验,约150项已完成或提前终止临床试验。其中,RTS, S/AS01在非洲地区的多中心Ⅲ期临床试验数据显示,5~17月龄儿童接种4剂疫苗后,临床发病的平均保护效率为36.3%,部分地区可实现约50%的临床保护效率。迄今为止,RTS, S/AS01是唯一被证明可降低疟疾患儿临床发病率和死亡率的疫苗。需要指出的是,RTS, S/AS01仅在接种4剂后的1年内对5~17月龄儿童具有较高的保护效率。随后,其免疫保护效率快速下降,接种1年半后平均保护效率已低于30%。作为疟疾疫苗研究领域零的突破,RTS, S/AS01具有重大的现实意义,WHO预期它在未来每年可以挽救数万名5岁以下非洲儿童的生命。

不可否认,RTS, S/AS01并没有达到疟疾疫苗的WHO官方标准(保护率>50%,保护时间>1年)。因此,如何有效遏制疟疾在热带、亚热带等国家和地区的流行与传播,依然是全球疟疾研究人员亟需解决的科学问题。虽然在几代疾控工作者的不懈努力下,我国已于2021年正式获得由WHO颁布的消除疟疾认证,但输入性疟疾在华中、华南和西南省份呈上升趋势。而且,在我国云南、东南亚以及非洲等地已出现了具有青蒿素潜在抗性的恶性疟原虫。因此,研制新型疟疾疫苗刻不容缓,并具有重大的社会和经济意义。

与疟疾作为国际传染病学研究热点极不协调的是,相关寄生虫学研究在国内普遍不被重视,疟疾疫苗研究也多为靶向疟原虫单一抗原的亚单位疫苗策略。由于疟原虫生活史包括肝(细胞)内期、红(细胞)内期和蚊期等复杂的生长时期,恶性疟原虫具有高度变异的抗原蛋白和多变的免疫逃逸策略,这既限制了国内外疟疾疫苗的研发,同时也是导致RTS, S/AS01并不完美的主要原因。近年来,随着多种新型基因编辑技术在恶性疟原虫关键生物标志物功能鉴定中的广泛应用,使研究人员针对恶性疟原虫不同生长时期设计多价疫苗成为可能。同时,与传统疫苗相比,新兴的信使核糖核酸(Messenger Ribonucleic Acid,mRNA)疫苗技术、疫苗佐剂和抗原递送系统的技术革新也将为疟疾疫苗研究提供更多的潜在方案,使得新一代高效疟疾疫苗的研发有望在未来5~10年内取得关键性突破。

图5 世界上第一种对抗由蚊子传播的致命疾病的疫苗—疟疾疫苗获批。(图片来源:MIT Technology Review 官网)

共识算法是区块链技术的核心,通过算力竞争的“挖矿”工作量证明机制消耗了全球太多的电力和计算资源,一直为人诟病。而PoS权益证明机制则有望彻底摆脱这一困境。PoS算法的突出特点是引入了币龄的概念,币龄越长,权力越大,挖矿难度越低,所获奖励越多。这样节点不需要消耗过多的外部算力和资源去竞争记账权,一定程度上还缩短了达成共识的时间,提升了系统运行性能。2022年2月,MIT Technology Review发布了2022年“全球十大突破性技术”,“PoS权益证明”与“新冠口服药”“实用型聚变反应堆”“终结口令”“AI 蛋白质折叠”等技术一起名列其中。

张小松:教育部“长江学者”特聘教授,电子科技大学网络空间安全研究院院长,博士生导师,中国电子学会区块链分会副主任委员。长期从事计算机网络与系统安全技术的研究。以第一完成人先后获国家科技进步奖一等奖、二等奖各1项,省部级科技进步奖一等奖3项、发明奖2项。

2008年题名为“Bitcoin:a peer-to-peer electronic cash system”的论文发表至今,基于分布式账本技术的区块链在全球产生了巨大深远的影响,而实现分布式系统强一致性及最终一致性达成的共识算法无疑是区块链技术体系的核心,其本质是要解决在分布式网络环境下,如何让所有的节点对窗口内发生事务的顺序和内容正确性达成共识,确保系统内同一个事务处理的可靠和可信,为实现区块链去中心化、开放自治提供机制的支撑和保障。

对于严格维护去中心化机制的“公有链”(Public Blockchain)系统,工作量证明(Proof of Work, PoW)毫无争议是目前最具认可度的共识算法,在全球影响力最大公有链比特币和以太坊系统中均予以采用。PoW的原理是区块链中各个节点通过算力计算哈希(Hash)难题,其中最先解决难题的节点将获得区块记账权,从而以算力竞争的方式保证数据的一致性,这一过程又俗称“挖矿”。PoW机制可以表达为:H(param||nonce)<target,其中,h表示哈希函数,param是区块相关的数据,nonce是随机值,target是由当前计算难度值决定的目标值。显然,要找到符合条件的nonce,只能通过穷举的方法来实现,然而,公链节点规模的扩大和挖矿难度的不断增大,PoW共识机制越来越暴露出无法克服的问题:

截至目前,采用PoW共识算法“挖矿”的比特币系统,产生一枚比特币的耗电量大约在20万度到30万度之间,导致全球范围内的比特币挖矿能源消耗非常巨大,剑桥大学替代金融研究中心数据显示,仅比特币挖矿年度消耗的电量高达1 300多亿度电,比很多国家的年度用电总量都要高。

PoW共识算法要求每笔交易及其区块都要获得所有节点的确认,才会被记录到账本中,而随着网络规模的扩大,共识的耗时必然提升,目前比特币和以太坊系统的共识速度平均仅约5笔/秒左右。虽然有试图以增加区块大小和降低出块时间间隔来提升交易速度的其它衍生公链系统,但是它们仍无法避免出现分叉概率上升的风险和交易效率降低等问题。

在巨大的利益驱动下,越来越多的专业挖矿算力节点加入到比特币和以太坊系统,甚至出现多个节点联合挖矿形成了的几大矿池占据多数算力的局面,明显违背了区块链去中心化基本原则和设计初衷。

权益证明算法正是为弥补PoW不足应运而生。PoS算法由PeerCoin创始人Sunny King和Scott Nadal提出并实现,其突出特点是引入了币龄的概念,将消耗币龄(代币数量与时间的乘积)与计算hash散列的工作量一起作为记账权分配的准则,从而等比例的降低hash运算的难度。PoS机制可以表达为:工作量证明hash()<总目标值,而总目标值=币龄X目标值target。因此节点不再是仅依靠算力去竞争记账权,而是通过长期持有或者获得更多的币去增加币龄。与PoW算法相比,PoS算法是在一个有限的空间里进行共识,不需要消耗过多的外部算力和资源,可以有效地弥补PoW的劣势,并且能够在一定程度上缩短达成共识的时间,提升系统运行性能。

股权授权证明(Delegated Proof of Stake,DPoS)基于PoS演化而来,由Block.one公司开发的企业操作系统(Enterprise Operating System,EOS)是第一个采用DPoS的公链项目。DPoS在完成共识的过程中不需要消耗大量的算力,大大提高了区块的生成速度和交易确认效率,同时不会出现PoS机制中富有节点长期支配记账权的情况。

以太坊由于其率先实现了图灵完备的智能合约子系统,目前已经是全世界应用生态发展最好的公有链系统,为解决以太坊面临的网络拥堵、运行节点的算力要求门槛高、PoW机制能耗巨大等困境,从2015年以来以太坊开发团队就一直致力于共识机制的切换研发:(1) 利用分片链来减轻节点验证者的工作量,解决可扩展性问题;(2) 利用信标链随机分配验证者降低作恶概率,保证安全;(3) 利用PoS机制降低节点门槛并保障生态的可持续发展,并最大程度上实现去中心化。

以太坊信标链已于2020年底上线。2022年4月11日,以太坊完成了网络的第一个影子分叉(Mainnet Shadow Fork),启动了一个从PoW过渡到PoS的合并测试网。预计2022年以太坊将完成由PoW到PoS的切换,并由此形成世界范围内节点数最多,应用生态最大的公有链系统,并将进一步推动区块链技术发展。

图6 一种确保数字货币安全的替代方法可以结束加密货币的能源消耗困境(图片来源:MIT Technology Review 官网)

吞下一粒药丸就能使新型冠状病毒消失,这是人们的愿望。现在,这个愿望变成了现实。感染新型冠状病毒几天的病人服用辉瑞公司的一种抗病毒药物后,可将住院的几率降低89%。美国政府已经订购了价值100亿美元的这种名为Paxlovid的新药。这款新药的成功研制并不只是黑暗中一次幸运的尝试。针对一种能够调控新冠病毒进行威胁性复制的关键蛋白酶,化学家们设计了这款药物,用于阻断病毒的自我复制能力。事实上,其它类型的冠状病毒中也存在类似的蛋白酶,这也就意味着辉瑞公司的药物有望抵御下一次冠状病毒流行病。抗病毒新药的研发周期比病毒疫苗的设计、合成和测试时间更长,以前从未有一种全新的战胜疾病的分子能如此迅速地从化学家的实验室进入志愿者的口中,并获得美国食品和药物管理局的批准。该药物将防止许多人死于新型冠状病毒肺炎(Corona Virus Disease 2019,COVID-19),包括免疫系统较弱而疫苗对其无效的人。而且如果出现了能够打败疫苗的新变种,抗病毒药物可能是我们的最后手段。

华中科技大学同济医学院教授、博士生导师。入选国家高层次青年人才项目及湖北省公共卫生青年拔尖人才。主要从事重要传染病的致病机制及新药研究工作。在Science、Nature Communications、Journal of Virology、Journal of Infection 等期刊发表SCI论文50余篇。

自2019年新冠肺炎疫情爆发以来,国内外已有多种新冠肺炎治疗药物和疫苗陆续被开发出来。由于专业医疗资源在新冠肺炎疫情中的紧缺性,许多生物制药研究机构将疗效好、副作用低、给药条件要求较低的新冠口服药作为新型冠状病毒药物开发的重点方向。

近期,由辉瑞公司开发的新冠口服药Paxlovid受到了广泛关注。2022年,发表在The New England Journal of Medicine 杂志上的临床 2/3 期双盲随机对照试验结果表明,蛋白酶抑制剂奈玛特韦(Nirmatrelvir/PF-07321332)和利托那韦(Ritonavir)联用,可导致进展为严重COVID-19的风险比安慰剂低89%,并且无明显的安全性问题[10]。Paxlovid实质上是两种药物的联合包装,即蛋白酶抑制剂奈玛特韦(Nirmatrelvir/PF-07321332)和能够改善奈玛特韦药代动力学行为的利托那韦(Ritonavir)。新型冠状病毒SARS-CoV-2依赖一种蛋白酶Mpro来切割蛋白前体,而奈玛特韦是一种针对Mpro蛋白酶的小分子抑制剂,能够通过竞争结合Mpro来抑制SARS-CoV-2的复制。一方面,奈玛特韦对重组Mpro的抑制常数(Ki)以及对SARS-CoV-2抗病毒指标半最大效应浓度(Concentration for 50% of Maximal Effect,EC50)均达到了纳摩尔每升的水平,同时其在小鼠适应的SARS-CoV-2模型中证明了口服活性,并在临床I期试验中达到了超过体外抗病毒细胞效力的口服血浆浓度;另一方面,奈玛特韦具备了可接受的溶解度、改进过的大规模合成潜力、与简单制剂载体的兼容性等特点,这些因素构成了奈玛特韦作为新冠口服药组分的分子基础[11]。利托那韦是一种酶抑制剂,其本身对SARS-CoV-2无明显活性,但它能抑制负责代谢奈玛特韦的酶CYP3A4的活性,从而提高奈玛特韦的血清浓度和半衰期,辅助奈玛特韦发挥功能[12]。

值得注意的是,自2019年以来,SARS-CoV-2已发展出数种比原始株具有更强传播力的突变株。因此,开发抗新冠药物时,其对突变株和潜在新突变株的效力留存水平是必须考虑的问题。奈玛特韦的靶点Mpro是SARS-CoV-2复制过程必需的重要蛋白酶,这种酶依赖一些高度保守的位点组成的口袋行使催化功能[13]。理论上发生在Mpro上的突变有可能对SARS-CoV-2的复制能力造成直接的损害,从而使这种突变株难以获得遗传优势。但目前尚无明确证据表明Paxlovid不易引起SARS-CoV-2的耐药性。此外,尽管体外研究和动物实验结果提示,奈玛特韦对奥密克戎突变株仍具有抗病毒活性[14,15],Paxlovid对奥密克戎及将来可能出现的新毒株引发的新冠肺炎感染是否仍有较好的临床疗效仍需进一步验证。同时,我们也注意到已有研究表明,在其他药物存在的情况下,利托那韦对奈玛特韦的药代动力学助推效应可能会引入有害的药物药物相互作用,因此对具有特定用药史的轻度~中度新冠患者开具Paxlovid处方可能需要高度谨慎[16]。

总的来说,如其他重要的新冠药物一般,新冠口服药Paxlovid的开发和上市也为新冠防治事业打入了一针强心剂。然而,随着新冠口服药的深入研发,是否能有进一步新的突破?让我们拭目以待。

图7 易于服用的治疗严重的 COVID-19 的药片也可能对下一次大流行病起作用(图片来源:MIT Technology Review 官网)

训练人工智能模型需要大量的数据。2021年,尼日利亚数据科学公司的研究人员注意到,旨在训练计算机视觉算法的工程师可以选用大量以西方服装为特色的数据集,但却没有非洲服装的数据集。于是,该团队通过人工智能算法人为生成由非洲时尚服装的图像组成的数据来解决这一不平衡问题。这种通过算法人为合成出的符合真实世界情况的数据,具有与真实数据相似的统计学特征,且在数据饥渴的机器学习领域的应用越来越普遍。在真实数据稀缺或过于敏感的领域,如医疗记录或个人财务数据,这些“合成数据”可用于训练人工智能模型。实际上,合成数据的想法并不新鲜,例如,无人驾驶汽车已经在虚拟街道上进行了许多训练。2021年,“合成数据”技术已经变得很普遍,许多初创公司和大学都在提供这种服务。例如,Datagen和Synthesis AI可根据需要提供数字人脸,其他公司可为金融和保险业提供合成数据。

特别地,2021年麻省理工学院发布了名为“Synthetic Data Vault”的开源工具,支持便捷生成不同领域、不同模态的数据。MIT Technology Review 关注到了数据合成方向的技术动态,并鉴于数据对智能算法的源头作用,将其列入2022“全球十大突破性技术”。 

中国科学院计算技术研究所研究员、博士生导师,国家杰出青年科学基金获得者。主要研究方向为数据科学基础理论,大数据分析技术与系统,网络与社会治理大数据应用等。在国内外学术期刊与会议上发表论文200余篇,授权发明专利80余项,谷歌学术引用20 000余次。在数据表征学习、异构大数据广谱关联、信息检索与排序、群体分析与群智众包系统等方面取得突出成果,5次获得本领域国际学术会议最佳论文奖。获国家科技进步奖二等奖3次、国家技术发明奖二等奖1次。

中国科学院计算技术研究所研究员,博士生导师。主要研究领域为机器学习理论与算法,可信机器学习技术及其在智能算法安全中的应用。在International Conference on Machine Learning、Conference on Neural Information Processing Systems、International Conference on Learning Representations 等机器学习和人工智能国际会议/期刊发表学术论文50余篇。2021年入选福布斯“中国科技女性榜”。

人工智能技术已经在百姓生活和社会管理中广泛应用,例如日常购物娱乐和网络社交中的智能算法推荐、生活工作中的智能穿戴和智能算法助手、以及帮助规划调度城市高效运转的城市大脑。人工智能技术浸润着现代社会的每一个角落,已然成为世界科技与社会发展的一大支柱。

2022年MIT Technology Review 评选出“全球十大突破性技术”,“人工智能合成数据(Synthetic Data for AI)”入选其中。如果说以深度学习为代表的智能算法是人工智能技术应用和发展的“引擎”,那么数据就是用于驱动“引擎”的“燃料”。虽然人工智能与机器学习领域的专家吴恩达认为,未来技术落地的重点将会转向数据,形成以“数据为中心的人工智能”[17],但过去几年研究人员还是主要聚焦在模型、训练算法、或者是算力的改进上,对数据本身的关注相对较少。

有观点认为,在大数据时代,数据本身是廉价的,富有价值的是从数据中挖掘到的知识。这个观点并不完全正确。知识是宝贵的,但数据却并非廉价。人工智能模型的效果很大程度上取决于数据质量,“无效输入(Garbage In)”往往会导致“无效输出(Garbage Out)”[18,19]。为了得到高质量的数据,需要对数据进行预处理,包括处理缺失数据和异常数据等。此外,为了提高模型训练的效果,还需要邀请领域专家人工为每一份数据附上标签,这大大地提高了数据的获取成本并制约了数据集的规模。除去获取成本高昂以外,特定领域的数据集还受限于用户隐私,极难采集。以医学影像领域为例,患者的医学影像(如X光片)被医院保管,医院无权泄露。这很好地保障了患者的隐私,但同时增添了领域研究者获取数据的难度。

因此,如何高效、廉价并在不侵犯隐私的情况下获取大量数据,是人工智能领域的关键问题之一。为了实现这一目标,研究人员提出了“合成数据(Synthetic Data)”的方法,即通过算法人为生成出符合真实世界情况的数据集[20-22]。合成得到的数据集可以用于人工智能模型的训练,且具有获取成本低、质量高、避免侵犯隐私等优点,有望解决目前模型训练中数据缺乏这一瓶颈问题。综上,笔者认为,MIT Technology Review 关注到了数据生成方向的技术动态,并鉴于数据对智能算法的源头作用,将其列入“全球十大突破性技术”。

国际上,“合成数据”技术研究的价值已经正在得到广泛认可,许多知名研究机构及科研院校都正在开展关于合成数据的项目。特别地,2021年麻省理工学院发布了名为“Synthetic Data Vault”的开源工具,支持便捷生成不同领域、不同模态的数据[23]。此外,国际资本市场也提早预期到了“合成数据”技术的潜在价值,催生出了一批初创公司, 如AI.Reverie、Sky Engine、Datagen等。其中,AI.Reverie在2021年被Meta公司收购,用于支持元宇宙的开发;Datagen在2022年3月获得5 000万美元的B轮融资。成功的商业模式正在表明“合成数据”这项技术并非只能用于实验室场景,在实际场景中也能够发挥重要作用。高纳德咨询公司在2021年6月的报告中甚至预测,到2030年,绝大部分用于训练人工智能模型的数据将是合成数据[24]。

我国的科研院所及商业公司也在“合成数据”领域积极进行研究探索,并取得了优秀的成果。例如,中国科学院的研究人员提出了对偶生成模型(Dual Variational Generation, DVG),该模型能够高效地生成大量现实中不存在的人脸虚拟图像,从而有效缓解异质人脸识别任务中缺乏数据及数据采集成本过高的问题[25]。商业公司也正在该领域进行有效探索,例如,支付宝公司基于实物建模技术与渲染技术提出了一套用于合成三维数据的方案,有效降低了模型训练中的数据成本,并且避免了人工标注数据带来的不可靠性[26]。相对而言,我国关于“合成数据”的研究主要着眼于服务下游任务,对“合成数据”技术本身的研究仍有待开拓。

“合成数据”领域的技术发展趋势迅猛,正在被期待对人工智能产生“再次点火”的作用。本次入选MIT Technology Review “全球十大突破性技术”榜单,也将使其受到社会各界的更多关注。然而,笔者认为我们仍然需要重点关注以下几个问题:

研究者们逐渐意识到,高质量的合成数据集不仅仅可以作为真实数据集的补充,更可以作为训练人工智能模型的主要数据来源。但在全面应用合成数据集之前,需要充分研究合成数据集与真实数据集的差异,从而避免应用合成数据集带来的偏差。如何评估合成数据集与真实数据集的差异仍是一个亟待解决的问题。

目前大多合成数据技术是基于统计机器学习方法的,由于经典统计学只关注了数据中蕴含的相关性,而忽视了因果性,因此有可能会生成不合逻辑的数据。例如,合成图像中可能会出现具有异常背景的图像,这类数据被称为“非自然数据”[27]。“非自然数据”对智能算法的影响目前仍然未知,尤其对算法的鲁棒性和可靠性。刻画影响的边界并提早思考应对办法将会是“合成数据”能否进入风险敏感领域的关键。

。虽然“合成数据”并不由某个用户产生,但是目前的“合成数据”仍然需要借用数据来训练用于合成数据的模型,比如生成对抗网络。由于生成对抗网络结构的复杂度较高,因此在模型训练的过程中,存在记忆原始训练样本分布的可能。已经有最新研究结果表明,可以通过合成的数据反向推断出原始训练样本[28]。所以,数据合成技术存在上述“隐式隐私”泄露问题,如何更严密地保护隐私仍是有待探究的问题。

图8 人工智能的好处主要集中在数据资源丰富的领域,而“合成数据”有望填补领域空白。(图片来源:MIT Technology Review 官网)

减少碳排放是缓解气候变化的关键步骤,但据联合国称,这还不够。为了避免未来发生灾难性的气候变暖,我们还应采取一定的措施清除空气中的二氧化碳。2021年9月,瑞士科技公司Climeworks开启了迄今为止最大的二氧化碳捕获工厂Orca的开关。该设施位于冰岛雷克雅未克的郊外,每年可捕获4 000吨的二氧化碳。该“除碳工厂”工作流程为:大型风扇将空气吸过一个过滤器,在那里碳捕获材料与二氧化碳分子结合;然后,该公司的合作伙伴Carbfix,将二氧化碳与水混合,并将其泵入地下,进而与玄武岩反应,最终变成石头。该设施完全依靠无碳电力运行,电力主要来自于附近的地热发电厂。可以肯定的是,4 000吨的年处理量并不是那么多,比900辆汽车的年排放量还要少。实际上,更大的“除碳”设施也在计划建设中。位于加拿大不列颠哥伦比亚省斯夸米什(Squamish)的碳工程公司,计划今年在美国西南部开始建设一个二氧化碳年处理量可达100万吨的工厂

标签: 丸型连接器

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台