交叉信息研究院姚期智等三位图灵奖得主领衔阐释人工智能飞速进步时代的风险管理
2024/05/24
人工智能正在飞速进步,全球业界正大力投入生成式人工智能,让系统能够自主行动以实现目标。随着能力及自主性的提升,人工智能的威力可能突飞猛进,也带来包括危害社会、恶意滥用、超脱人类管控等种种危机。虽然学者们已发声提出警告,但他们对于该如何管控危机仍缺乏共识。
5月20日,由三位图灵奖得主约书亚·本吉奥(Yoshua Bengio)、杰佛瑞·辛顿(Geoffrey Hinton)、姚期智(Andrew Yao)领衔,连同多位专家,包括经济学诺奖得主丹尼尔·卡内曼 (Daniel Kahneman) 以及清华大学教授张亚勤、薛澜等共同著作的文章“人工智能飞速进步时代的风险管理”(Managing extreme AI risks amid rapid progress)发表于美国《科学》(Science)杂志。
文章概述了一个整体的规划:从加强科技研发与主动灵活的治理机制双管齐下,并借鉴从其他苛求安全的科技中汲取到的经验,力求做出充足的准备。
文章指出,人类正在投入大量资源来使人工智能系统变得更强大,但在安全性和减轻危害方面却投入得远远不够。虽然当前人工智能系统的自主性仍然有限,但重大突破可能随时发生,将令人措手不及。为了让人工智能成为一种福祉,应该重新定向:要能预见到新兴风险的扩大,并在巨大风险发生前就做好准备,包括在技术研发与监控治理两方面。
文中提出管控人工智能安全的一些新思路及措施。首先,惯常的“无害假设”需要及时调整。对极高端新系统的风险评估,不能等到系统发布前夕,必须在研发过程中同步进行(白盒子而非黑盒子)。文章作者认为,可以借鉴医药、航天、核电、金融等领域的管控经验,为人工智能设立风险管理的最佳实践(best practice)指南。人工智能系统开发者在研发过程中,当按照管理指南定时进行自我评估,详细记录相关风险分析,并同意接受现场审核。
治理机制需要与系统风险大小相匹配。应该保护低风险应用和学术研究,无需设置过度的官僚障碍。最紧迫的审查应关注前沿人工智能系统。少数最强大的人工智能系统——在价值数十亿美元的超级计算机上训练出的——可能最具危险性且不可预测,甚至规避人类控制的能力。
文章还指出,许多监管及立法工作,需要政府连同专家们立即展开。在法规出台之前,可先要求人工智能企业做出详细承诺(if-then commitments),自行设下红线以及危机处理办法。本文通讯作者为剑桥大学博士候选人扬·布劳纳(Jan Brauner)。
文章来源清华大学新闻网,分享只为学术交流,如涉及侵权问题请联系我们,我们将及时修改或删除。
-
2025年两院院士增选有效候选人116
-
2025最新JCR分区及影响因子2461
-
好学术:科研网址导航|学术头条分641
-
2025年国际期刊预警名单发布!770
-
2025年中科院期刊分区表重磅发4295
-
中国科协《重要学术会议目录(202964
-
吉林大学校长张希:学术会议中的提1619
-
2025年国自然正式放榜!08-27
-
SCI论文中的数据引用,如何避免08-15
-
EI核心期刊和普通期刊有什么本质08-15
-
国内期刊EI与核心有什么区别?三08-15
-
怎么查找前几年的EI期刊源?科研08-15
-
如何准确验证论文是否被SCI收录08-15
-
机械类EI期刊投稿全攻略:从实验08-15
-
SCI论文DOI号查找全攻略:学08-15
-
中文中文中文 18171
-
中南林业科技大学 24155
-
AAA 8083
-
发展速度努力克服离开南京非公开 17991
-
西安交通大学电气工程学院 23026
-
International As 8035
-
黑龙江龙房川律师事务所 2060
-
上海广尧商务咨询有限公司 24031
-
甘肃阳光假期国际旅行社 2010
-
武汉尔湾文化 1944
-
香港维科信息产业研究中心 23039
-
北京建筑工程学院 20925
-
WQWREW 8159
-
上海逍天电子科技有限公司 21184
-
公共汽车公司 18095
-
东煤公司矿物局 17999
-
北京电源行业协会 23308
-
北京国宏经纬文化发展有限公司 18214
-
上海联合非常规能源研究中心 24194
-
湖南大学土木工程学院 21163