10月22日,中美两国人工智能领域的顶尖专家和技术领袖联名发起一项呼吁,在科学界达成“安全可控开发超级智能的广泛共识”前,应暂停“超级智能”的研发。

中外顶尖科技专家联名签署情况

该声明由非营利组织未来生命研究所发起,包括人工智能先驱杰弗里辛顿(Geoffrey Hinton)、苹果公司联合创始人史蒂夫沃兹尼亚克(Steve Wozniak)、维珍集团董事长理查布兰森(Richard Branson)、经济学家达龙阿西莫格鲁(Daron Acemoglu)以及前美国国家安全顾问苏珊赖斯(Susan Rice),都参与了签名。

值得一提的是,哈里王子及其妻子梅根、萨塞克斯公爵和公爵夫人、史蒂夫班农(Steve Bannon)和等知名人士也参与了联合签署声明。

截至10月23日中午,这份声明的签署人数已经达3193人。中国科学院院士、图灵奖得主姚期智、清华大学智能科学讲席教授、智能产业研究院院长张亚勤,以及清华大学战略与安全研究中心学术委员、苏世民书院院长薛澜等中国学者也位列其中。

声明 来源:官网截图

“超级智能”是一种在所有认知任务上都超过人类的人工智能形式。有别于当下绝大多数公司研发通用人工智能,“超级智能”的前景引发业界担忧。该声明称,许多顶尖AI企业将要打造超级智能,“引起了人们的担忧,从人类经济过时和被剥夺权力、自由、公民自由、尊严和控制的丧失,到国家安全风险,甚至潜在的人类灭绝。”

参与这一呼吁的北京前瞻人工智能安全与治理研究院院长,中国科学院自动化研究所研究员曾毅告诉澎湃科技(www.thepaper.cn),目前我们还没有坚实的科学证据和切实可行的方法来确保超级智能的安全,使其不会给人类带来灾难性的风险。世界尚未准备好迎接不是可控工具的超级智能。

当前,超级智能已成为人工智能领域的热门词汇。从埃隆马斯克(Elon Musk)的xAI到萨姆奥特曼(Sam Altman)的OpenAI等公司都在竞相推出更先进的大语言模型。Meta甚至将其LLM部门命名为“Meta超级智能实验室”。

科技界的人们对人工智能的看法越来越两极分化:一方认为它是推动社会进步的强大力量,理应不受限制地发展;另一方则担忧其潜在风险,主张加强监管。

然而,即使是马斯克和奥特曼等世界领先人工智能公司的领导人,过去也曾警告过超级智能的危险。在担任OpenAI首席执行官之前,奥特曼在2015年的一篇博客文章中写道:“发展超人类机器智能(SMI)可能是对人类持续存在的最大威胁。”

曾毅认为,绝大多数公司研发的只是通用人工智能工具,这并不是超级智能。但是超级智能的风险是并没有科学依据可以控制的。美国企业,例如Meta建立超级智能实验室,以及阿里声称的开发超级智能,这并不只是通用人工智能工具。

澎湃科技注意到,据《纽约时报》报道,10月22日联合声明发布当天,Meta在超级智能实验室裁员 600人。该部门拥有约 3000 名员工,他们被授权开发“超级智能”,即超越人脑的人工智能。

Meta新任首席人工智能官亚历山大王 (Alexandr Wang)表示,裁员旨在清理因三年来过快建立Meta人工智能工作而导致的组织臃肿,从而帮助Meta更快地开发人工智能产品。Meta高管强调,裁员并不意味着他们正在缩减人工智能方面的工作,超级智能仍然是扎克伯格公司的首要任务之一。