交叉信息研究院姚期智等三位图灵奖得主领衔阐释人工智能飞速进步时代的风险管理
2024/05/24
人工智能正在飞速进步,全球业界正大力投入生成式人工智能,让系统能够自主行动以实现目标。随着能力及自主性的提升,人工智能的威力可能突飞猛进,也带来包括危害社会、恶意滥用、超脱人类管控等种种危机。虽然学者们已发声提出警告,但他们对于该如何管控危机仍缺乏共识。
5月20日,由三位图灵奖得主约书亚·本吉奥(Yoshua Bengio)、杰佛瑞·辛顿(Geoffrey Hinton)、姚期智(Andrew Yao)领衔,连同多位专家,包括经济学诺奖得主丹尼尔·卡内曼 (Daniel Kahneman) 以及清华大学教授张亚勤、薛澜等共同著作的文章“人工智能飞速进步时代的风险管理”(Managing extreme AI risks amid rapid progress)发表于美国《科学》(Science)杂志。
文章概述了一个整体的规划:从加强科技研发与主动灵活的治理机制双管齐下,并借鉴从其他苛求安全的科技中汲取到的经验,力求做出充足的准备。
文章指出,人类正在投入大量资源来使人工智能系统变得更强大,但在安全性和减轻危害方面却投入得远远不够。虽然当前人工智能系统的自主性仍然有限,但重大突破可能随时发生,将令人措手不及。为了让人工智能成为一种福祉,应该重新定向:要能预见到新兴风险的扩大,并在巨大风险发生前就做好准备,包括在技术研发与监控治理两方面。
文中提出管控人工智能安全的一些新思路及措施。首先,惯常的“无害假设”需要及时调整。对极高端新系统的风险评估,不能等到系统发布前夕,必须在研发过程中同步进行(白盒子而非黑盒子)。文章作者认为,可以借鉴医药、航天、核电、金融等领域的管控经验,为人工智能设立风险管理的最佳实践(best practice)指南。人工智能系统开发者在研发过程中,当按照管理指南定时进行自我评估,详细记录相关风险分析,并同意接受现场审核。
治理机制需要与系统风险大小相匹配。应该保护低风险应用和学术研究,无需设置过度的官僚障碍。最紧迫的审查应关注前沿人工智能系统。少数最强大的人工智能系统——在价值数十亿美元的超级计算机上训练出的——可能最具危险性且不可预测,甚至规避人类控制的能力。
文章还指出,许多监管及立法工作,需要政府连同专家们立即展开。在法规出台之前,可先要求人工智能企业做出详细承诺(if-then commitments),自行设下红线以及危机处理办法。本文通讯作者为剑桥大学博士候选人扬·布劳纳(Jan Brauner)。
文章来源清华大学新闻网,分享只为学术交流,如涉及侵权问题请联系我们,我们将及时修改或删除。
-
2025最新JCR分区及影响因子1939
-
好学术:科研网址导航|学术头条分468
-
《时代技术》投稿全攻略:一位审稿499
-
2025年国际期刊预警名单发布!600
-
2025年中科院期刊分区表重磅发3957
-
中科院已正式发布2024年预警期861
-
2025年度国家自然科学基金项目727
-
中国科协《重要学术会议目录(202733
-
2024年国家自然科学基金项目评1138
-
2024年JCR影响因子正式发布1214
-
吉林大学校长张希:学术会议中的提1391
-
SCI论文插图全攻略:从规范解析08-01
-
国际学术会议参加经验是怎么样的呢08-01
-
掠夺性会议是怎么进行判断的呢?—08-01
-
SCI论文投稿费怎么交?202408-01
-
HKSME 23926
-
西安海瑞特会议服务有限公司 17990
-
江苏省医学会 21046
-
曲阜师范大学 23994
-
广州农林实业有限公司 17944
-
ghr 24110
-
沈阳博思教育咨询有限公司 22901
-
北京华矩咨询管理科技有限公司 8067
-
纳智博研 23907
-
中国汽车工程学会 20982
-
中国北京网络公司 20904
-
新乡市弘达旅行社有限公司 17891
-
揚州市可瑞爾公司 18027
-
WILL 23073
-
烟台FOXCOON 20892
-
轻工业环境保护研究所 18091
-
武汉市cen主办方 17950
-
上海中国汽车会议网 24162
-
武汉金钥匙会务服务有限公司 23913
-
中国医药化工网 23454