中外专家订立北京ai安静邦际共鸣:禁止ai自行复制
新浪科技(Technology)援引腾讯科技(Technology)消息,将来生命研究所发起的 “暂停GPT-4及以上AI系统至少6个月研发”公开信发布近一年后,又一则关于AI安危与治理相关行业共识达成。3月18日,包括图灵奖得主约书亚·本吉奥、杰弗里·辛顿、姚期智等在内的数十位的中外教授日前在首都联合签署了由智源研究院发起的《首都AI安危世界共识》(以下简称共识),涉及人工智能“风险红线”和“路线”两大块,其中“风险红线包含自主复制、改进”,“权力寻求”、“协助不良行为者”和“欺骗”四个部分。附图1为Yoshua Bengio、Geoffrey Hinton、姚期智等中外教授在首都联合签署《首都AI安危世界共识》。
据了解,关于“人工智能的自主复制和改进”,共识强调了人在这个过程中的作用,要求任何人工智能系统都不应在人类没有明确批准和协助的情况下复制可能改进自身,包括制作自身的精确副本以及创造具有相似可能更高能力的新人工智能系统。
“权力寻求”则明确要求任何人工智能系统不能采取不当增加自身权力和影响力的行动。
“协助不良行为者”则是指所有人工智能系统都不应辅助提升其使用者的能力,使之能够达到设计大规模杀伤性武器、违反生物可能化学武器公约可能执行导致严重财务损失可能同等伤害的网站攻击领域教授的水平。
关于“欺骗”的描述,共识要求任何人工智能系统都不能有持续引导其设计者可能监管者误解其僭越任何前述红线的可能性。
总体来说,人工智能红线的核心共识,即呼吁行业在进行(Carry Out)人工智能技术研发时,为AI的发展套上“紧箍咒”,限制其获取通过“越狱”、“诱导开发者”的形式获得超常规权限,并限制其在未经监管的情况下进行(Carry Out)自身的复制与改进,也呼吁放弃在大规模杀伤性武器等军事(Military)领域应用人工智能技术。
关于人工智能的发展路线,涉及“治理”、“测量与评估”、“技术合作”三部分。共识强调,确保上述红线不被僭越可以达成的前提,是行业共同努力(Effort),建立并改进治理机制,同时研发更多安危的技术。而为了完成上述治理工作,共识建议世界学术界达成“技术合作”,建立更强的全球技术网站,同时呼吁人工智能开发者和行政部门资助者,将超过1/3的预算投入到安危领域。
参与联署的部分中外教授名单如附图2及附图3所示。
中外教授签署首都AI安危世界共识:禁止AI自行复制https://imgs.gamersky.com/upimg/new_preview/2024/03/18/origin_b_202403181626277280.jpg
- 赞(267) 踩(61) 阅读数(762) 最新评论 查看所有评论
-
加载中......
- 发表评论
-