文章最后更新时间:2023-11-06,由天天资讯负责审核发布,若内容或图片失效,请联系客服!
中美等28个国家签署全球首份人工智能治理宣言
一向低调的 Open AI 首席科学家伊利亚·苏兹科维尔 (Ilya ) 近日罕见地接受了媒体的长篇采访。 他在采访中透露,现在最担心的不是如何打造更新更强大的大模型,而是如何防范未来必然出现的“超级人工智能”。 此前,马斯克、“AI教父”辛顿等人曾多次提醒人们注意AI带来的风险。
为应对危机,世界主要国家近日在英国召开人工智能安全峰会。 中国科学技术部副部长吴朝晖也应邀在峰会开幕式上致辞。 中国、美国、欧盟等28个国家联合签署《布莱切利宣言》,表达对人工智能模型对人类生存构成威胁的担忧。 有媒体评论称,在人类面临人工智能这一新兴物种的强大威胁之际,“世界表现出了前所未有的团结”。
苏兹科维尔:
人工智能可能已经有意识了
苏兹科维尔是以色列裔加拿大人。 早在本世纪初,他就师从“AI教父”。 他们的团队从最基础的AI图像识别软件开始,逐步开发出来,当时的情况并不乐观。 将人工智能模型的能力推向极限。 苏兹科维尔也承认,他在刚推出时并不知道 GPT 模型会如此强大。 “当我们第一次问它问题时,它总是会给出混合的答案和许多事实错误。” 但随着训练量的增加和数十亿用户的反馈,GPT模型已经更新。 迭代速度比任何人想象的都要快得多。
苏兹科维尔在采访中也认为,GPT模型已经有了自己的意识,尽管可能很轻微。 他引用了量子力学中“玻尔兹曼脑”的概念作为例子。 构成人工智能基础的“神经网络”在活跃时也有自己的意识。 当没人问问题时,这些意识就消失了。 苏兹科维尔表示,他目前的工作重点不是开发更强的AI模型,而是防止未来强大的“超级人工智能”对人类构成的威胁。 这一步预防工作完成后,他认为,部分人类可能会选择与安全AI结合,成为AI的一部分,实现“共同永生”。
马斯克警告说:
人工智能未来可能威胁人类生存
苏兹科维尔说,“人工智能比人类更深刻地看待问题。人类下围棋已经有几千年了,对规则的理解比人工智能更肤浅。你可以想象,当AGI实现时,人工智能将能够解决任何问题。” “如果围棋领先于人类会怎样?”苏兹科维尔的老师、“AI教父”也在今年6月的北京致远人工智能大会上向观众表达了担忧。他认为人工神经网络人工智能将比人脑更加聪明,这一天会比他最初想象的要早得多。
众所周知,世界首富马斯克一直是“AI威胁论”的持有者。 他曾在纪录片中表示,“在人工智能时代,我们可能会为自己创造一个永远的独裁者。在过去,至少像希特勒、墨索里尼这样的凡人的能力是有限的,他们的恶行也是有限度的。” 马斯克还表示,未来如果人类碰巧阻碍人工智能实现目标,人工智能就会像“蚂蚁”一样碾碎人类尸体。
面对科学界的广泛关注,首届全球人工智能安全峰会于11月1日在英国布莱切利庄园拉开帷幕。开幕式上,包括中国在内的28个参会国共同签署的《布莱切利宣言》正式发布。 这也是全球首个关于人工智能治理的联合宣言。
据新华社报道,中国科学技术部副部长吴朝晖在开幕式上致辞。 中方指出,人工智能治理关系全人类命运,是世界各国面临的共同问题。 发展人工智能,应积极倡导以人为本、智向向善,加强技术风险管控,鼓励各方本着相互尊重、平等互利的原则协调共治,增强人工智能的发展水平。发展中国家在人工智能全球治理中的代表性。 和声音,不断弥合情报差距和治理能力差距。 中方愿与各方加强人工智能安全治理沟通与交流,为推动形成普遍参与的国际机制和广泛共识的治理框架积极贡献智慧,有效落实全球发展倡议、全球安全倡议。倡议和全球文明倡议,推动人工智能技术更好造福人类,共同构建人类命运共同体。
英国科学创新技术部信息显示,本次峰会邀请了约100名各国官员、人工智能企业代表和专家。 美国、中国、日本、德国、印度等20多个国家的政府代表,以及联合国、经合组织、国际电信联盟等国际组织的代表出席会议。 有媒体称,“这是世界上罕见的团结表现”。
成都商报-红星新闻记者 郑智