经过不到一年的时间,AI 的发展超乎所有人的想象,也大有失控的风险。
就在今天,全球部分顶尖的 AI 研究员、工程师和 CEO 就他们认为 AI 对人类构成的生存威胁发出了新的警告,并共同签署了一份只有短短 22 个字的声明:
减轻 AI 带来的灭绝风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。

这份声明是由总部位于旧金山的非营利组织 AI 安全中心(Center for AI Safety,简称 CAIS)发布的。
值得注意的是,这份声明一经发布,便迅速得到了多伦多大学计算机科学荣誉教授、“AI 教父” Geoffrey Hinton,蒙特利尔大学计算机科学教授、图灵奖得主 Yoshua Bengio,Google Deepmind CEO Demis Hassabis,OpenAI CEO Sam Altman,以及中国科学院自动化研究所类脑认知智能实验室主任、教授曾毅等近 400 位学术界、产业界、高校专家的支持。


越来越像人的 AI
其实一直以来,随着生成式人工智能工具如 OpenAI 的 ChatGPT、微软的新 Bing、Google 的 Bard 等面向更多的群体开放访问,业界关于 AI 炒作的声音愈演愈烈。
在此之下,很多学者、高管表示过担忧,如:
本月初,多伦多大学计算机科学荣誉教授、“AI 教父” Geoffrey Hinton 在选择从 Google 离职时,对外界分享道,「人工智能正在变得比人类更聪明,我想要‘吹哨’提醒人们应该认真考虑如何防止人工智能控制人类」。
OpenAI CEO Sam Altman 在两周前首次亮相美国参议院就各自公司与机构制造的人工智能技术存在的潜在危险的听证会时,反其道而行之,强烈要求政府部门对其以及行业内的 AI 技术应用政策进行落地与监管,旨在减少此类系统可能带来的“潜在风险”。
不仅如此,个人用户也感受到了 AI 的“可怕”之处。
在 Reddit 上,一名网友发帖称自己在使用微软新 Bing 时,由于 Bing Chat 提供了没有来源的内容,自己便对这个回答进行了质疑。
万万没想到的是,人类惨遭 AI “怼了一顿”。甚至 AI 表示,“我不欣赏你的语气和态度,所以我就在这里结束这个对话。”
最后,AI 还对网友进行了警告,“以后请多一些尊重和礼貌”。

这也引得 10.2k 个用户关注,并纷纷留言道,“这个 AI 已成精,越来越像人了。”也有人指出,“用人类知识训练人工智能,就会让它像人类一样回应、思考,这是惊人的,自然也会让人担忧”。

声明一出,达成共识
事实证明,这一次 CAIS 声明的发出,正所谓字少事大,而它之所以能够吸引如此多专家学者的关注,一方面,主要这是很多人认为应该迫切解决的问题;另一方面,在这份声明中,没有直接道清存在哪些风险,设立“围墙”,也是为了避免重蹈覆辙。
还记得两个月前,非营利性的 “生命的未来研究所 “(Future of Life Institute)发出一封公开信,同样的图灵奖得主 Yoshua Bengio、伯克利计算机科学教授 Stuart Russell、特斯拉 CEO 埃隆·马斯克、苹果联合创始人 Steve Wozniak 等人进行了签署。
这份公开信强烈呼吁:暂停训练比 GPT-4 更强大的系统,期限为六个月。理由是这些模型对社会和人类存在潜在风险,“只有当我们确信强大的人工智能系统带来积极的效果,其风险是可控的,才应该开发。这种信心必须有充分的理由支持,并随着系统潜在影响的大小而增加。”
不过,彼时这封信一经发布便在多个层面遭到了批评,一些专家认为这份公开信过于夸大了人工智能带来的风险,一些人虽然同意公开信提到的风险,但是对信中建议的补救措施不敢苟同。
而这一次,发布如此简短的说明,CAIS 组织在网站上指出,“人工智能专家、记者、政策制定者和公众越来越多地讨论人工智能带来的广泛的重要和紧迫风险。即便如此,要清楚地表达对一些先进的 AI 最严重风险的担忧可能是困难的。这份简洁的声明旨在克服这一障碍并展开讨论。这也是为了让越来越多的专家和公众人物对待先进人工智能的一些最严重的风险有共同的认识,这样他们也会认真对待。”
据《纽约时报》报道,人工智能安全中心执行主任 Dan Hendrycks 表示,今天的声明很简洁——没有提出任何减轻人工智能威胁的潜在方法——旨在避免这种分歧。“我们不想推动包含 30 种潜在干预措施的庞大列表”,Hendrycks 说道,“当这种情况发生时,它会淹没掉更重要的信息。”
与此同时,Hendrycks 也指出,“系统性偏见、错误信息、恶意使用、网络攻击和武器化,都是人工智能带来的重要和紧迫的风险。”
也有专家认为,一旦人工智能系统达到一定的复杂程度,就可能无法控制它们的行为。
简单来看,有了这样一份声明,参与其中的人都有了一定共识,可以共同为“减轻 AI 带来的灭绝风险”而出谋划策,群策群力。

OpenAI 的竞争之举?
除此之外,也有媒体将这封得到 OpenAI 大力支持的声明,视为 OpenAI 正在抢夺先机,毕竟此前马斯克之前试图拿人工智能风险说事,呼吁停止 AI 开发,毫无疑问,那样做会阻碍 OpenAI 在生成式 AI 领域的地位与进度。
如今 CAIS 这封最新的声明中,重点是在如何降低 AI 风险上,也在鼓励外界为 AI 监管政策的制定出谋划策,自然无形之中降低了业界呼吁直接暂停开发比 GPT-4 更强大模型的声音了。
至此,你怎么看待 AI 会存在灭绝人类的风险?在现实应用中,你是否感受过 AI 超乎你想象的强大之处?欢迎留言分享。