当地时间5月30日,在2024年人工智能向善全球峰会(AI for Good Global Summit)上,OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)通过视频连线的方式,与主持人深入讨论了人工智能的影响及未来前景等问题。在讨论人工智能全球化时,阿尔特曼特别指出,中国会诞生有自身特色的大模型,预计会有10到20个大模型“存活”下来。
图片来源:Youtube
核心内容
1、关于中国大模型的发展预测
目前中国正有大量模型在被训练,这种趋势会持续下去。我预计中国会有自己不同于世界其他地方的大语言模型。预计会有少数大模型,数量大概在10到20个,会得到大量用户使用,并能获得最多资源进行训练
2、关于对OpenAI前董事批评的回应
我尊重但非常不同意她对事件的回忆。当我们发布ChatGPT时,当时只是一个低调的研究预览版。我们没有预料到会发生什么。
3、关于AI的积极影响
我认为在生产力方面,人工智能已经产生了影响。人们可以更快、更有效地完成工作,更多地专注于他们想做的部分。
4、关于AI的潜在威胁
网络安全问题,我不知道它是否会是第一个,但这是我认为可能会成为潜在问题的一个方面。
5、关于AI是否会加剧收入不平等
人工智能在很多方面对最贫困的人们帮助更大,而不是最富有的人们。
图片来源:Youtube
当主持人询问人工智能将如何开始改变世界时,阿尔特曼回应道:“我认为在生产力方面,人工智能已经产生了影响。”他以软件开发人员为例,说明AI如何使他们能够更快、更有效地完成工作,并预计这种效率提升将扩展到更多领域,包括教学、学习和医疗保健,“我们会看到不同的行业变得比以前更高效,因为他们可以使用这些工具”。
然而,他也提到了人工智能可能带来的负面影响,尤其是网络安全问题。阿尔特曼坦言:“我会特别提到网络安全问题,我不知道它是否会是第一个,但这是我认为可能会成为大问题的一个方面。”
在探讨AI发展的速度时,阿尔特曼表达了对未来发展乐观的态度:“我们不认为我们接近某种渐近线。”他认为,尽管业内对此存在争论,但最好的方法是通过实际成果来证明进步,而不是仅仅依靠预测。
关于全球化问题,阿尔特曼对中国的AI发展做出了具体预测:“我预计中国会有自己不同于世界其他地方的大语言模型。”他进一步指出:“我猜他们会训练成百上千个大语言模型,我猜会有少数大模型,数量大概在10到20个,会得到大量用户使用,并能获得最多资源进行训练。”
当主持人问道,OpenAI前董事海伦·托纳(Helen Toner)此前对他的批评是否属实时,阿尔特曼回应称:“我尊重但非常不同意她对事件的回忆。”他进一步解释说:“当我们发布ChatGPT时,当时只是一个低调的研究预览版。我们没有预料到会发生什么,但我们当然与董事会讨论了很多关于我们正在推进的研究计划和发布计划。”他强调,OpenAI在发布GPT-4的训练版本时已经与董事会进行了充分的沟通,并在制定一个逐步发布的计划。
阿尔特曼还提到,尽管他不想在这里逐条反驳托纳的观点,但他确实认为托纳是真心希望通用人工智能有一个好的结果,对此他表示感激,并祝愿托纳一切顺利。他强调,OpenAI致力于负责任地推进AI研究,并确保其成果能够惠及整个社会。
最后,关于互联网的未来,他表达了乐观的看法:“我认为我们使用互联网的方式可能会有所改变,但我不担心它会变得无法理解。”他预期AI将使互联网更加个性化,为用户带来更有效的信息获取方式。
以下为阿尔特曼与主持人对话节选:
主持人:
现在,大家都认识到了到人工智能的力量和潜力,但它还没有真正改变世界,也没有真正改变任何可持续发展目标和我们讨论的事情。你认为当人工智能真正开始产生影响时,我们首先会看到的一个好的变化是什么?以及第一个不好的变化是什么?
阿尔特曼:
我认为在生产力方面,人工智能已经产生了影响。软件开发人员是最常被提到的例子,我认为这仍然是最好的例子,人们可以更快、更有效地完成工作,更多地专注于他们想做的部分。像其他技术工具一样,人工智能成为工作流程的一部分,然后很快就难以想象没有它们的工作。因此,我预计这种模式会在更多领域发生,我们会看到不同的行业变得比以前更高效,因为他们可以使用这些工具,这将对从编写代码到教学、学习和医疗保健的运作产生积极影响。我们会看到效率的提升,我认为这将是第一个真正可感受到的积极变化。
而我认为我们已经在经历第一个负面影响了。显然,已经有一些负面的事情在发生。我会特别提到网络安全问题,我不知道它是否会是第一个,但这是我认为可能会成为潜在问题的一个方面。
主持人:
当他们说“渐近”时,他们指的是,我们在训练人工智能时,是否正在接近某种速度的极限或瓶颈?你认为我们可能会看到怎样的改进?是线性改进,还是渐近改进?或者我们可能会看到某种指数级的、非常令人惊讶的改进?
阿尔特曼:
这是个好问题。我们不认为我们接近某种渐近线。你知道,这在业内是一个争论的话题。我认为我们最好的做法就是用实际成果来证明,而不是口头解释。很多人都在做各种预测,我认为我们要做的就是尽可能进行最好的研究,然后负责任地发布我们能创造的任何成果。我预计在某些领域会有巨大的改进,而在其他领域可能没有那么大的进步,这在之前的每个模型中都是如此。
但这感觉像是我们每次发布新模型时都会有的讨论,比如从3到3.5,再从3.5到4,总是有很多争论,是否真的会有那么大的改进?如果有,会在哪些方面?答案是,似乎仍有很多提升空间。我预计我们会在一些人们认为不可能的领域取得进展。顺便提一下,请原谅我插一句。我确实相信,Omni模型的全面发布,包括语音综合等功能,将是我们向构建时间匿名的AI代理迈出的重要一步。如果你对此感兴趣,可以考虑加入我的小组Natural 20,我们可能会在接下来的几周内讨论这个话题。
主持人:
你的两位前董事会成员,Tosha McColley和Helen Toner,刚刚在《经济学人》上发表了一篇评论文章,他们说在OpenAI的失望经历之后——这些是投票解雇你然后你又被重新任命为CEO的董事会成员——他们说不能信任AI公司的自我监管。然后本周早些时候,Toner在Ted AI播客中接受了一个相当严厉的采访,她说整个监督过程完全失效,事实上她和董事会是在Twitter上了解到ChatGPT的发布。这准确吗?
阿尔特曼:
我尊重但非常不同意她对事件的回忆。但我要说的是,我认为Toner是真心关心AGI(通用人工智能)有一个好的结果,我对此表示感谢。我祝她一切顺利。我可能不想在这里逐条反驳。当我们发布ChatGPT时,当时只是一个低调的研究预览版。我们没有预料到会发生什么,但我们当然与董事会讨论了很多关于我们正在推进的研究计划和发布计划。在那时,我们已经有了3.5版本,ChatGPT就是基于这个版本的,已经发布了大约8个月左右。我们早已完成了GPT-4的训练,并在制定一个逐步发布的计划。但我确实不同意她对事件的回忆。
主持人:
我想问你一些关于人工智能的更大问题。我刚刚参加了一个关于人工智能和人文主义的活动,其中一个参与者提出了一个非常有趣的观点,他说,人类创造出比人类更强大的东西可能不会让我们变得更自负,反而会让我们变得更谦卑。我们会像照镜子一样,看到自己赤裸的样子。我们会对机器产生敬畏之情,并对我们的生活产生一种谦卑感,这将教会我们一种新的生活方式。你认为这会发生吗?你有没有过这样的经历?
阿尔特曼:
就我个人而言,是的,我真的有这种感觉,我认为这种情况会更广泛地发生。我敢打赌,很多人都会产生敬畏感。我不会说每个人都会这样,但会有一些人对这件事有自负的反应。但总体上,我认为会有更多的人对世界和我们在宇宙中的位置产生敬畏感,并对人类视角产生一种谦卑感,我认为这将是非常积极的。
我最近在反思,某种意义上,科学史就是人类变得越来越不以自己为中心。你可以看到很多例子,比如我们曾经相信太阳围绕地球旋转,这是非常以人为中心的思维方式。然后我们意识到,实际上是地球围绕太阳旋转。实际上,那些小白点是许多恒星,还有许多星系。如果你愿意继续这个类比,你可以说,好吧,还有多重宇宙的概念,这真的很奇怪,我们几乎什么都不是。人工智能可能是另一个例子,让我们获得更多的视角,使我们更加谦卑,并对我们所处的更大事物产生敬畏感。我认为这是一个持续的、非常积极的过程。
主持人:
我们来谈谈人工智能的全球化问题:你认为未来世界会如何发展?你认为三年后会有很多基础大型语言模型,还是只有很少几个?更重要的是,你认为中国是否会有一个单独的大语言模型,或者一个专供尼日利亚使用的模型,一个专供印度使用的模型?这方面的发展方向是什么?
阿尔特曼:
老实说,我们或任何其他人都不知道这个问题的答案。显然,目前中国正有大量模型在被训练,这种趋势会持续下去。虽然我们不知道,但我预计中国会有自己不同于世界其他地方的大语言模型。我猜他们会训练成百上干的大语言模型,预计会有少数大模型,数量大概在10到20个,会得到大量用户使用,并能获得最多资源进行训练。但我认为我们在这个领域,仍处于非常早期的阶段,还有很多东西有待发现,还有很多科学突破尚未发生,目前做任何有信心的预测真的很难。
主持人:
自去年11月以来,我一直在记录一些聪明的AI专家们存在分歧的问题。其中一个最有趣的问题是,人工智能会使收入不平等加剧还是改善。我听了很多你的播客节目,这个话题出现了几次,你提到人工智能可能会加剧收入不平等,因此需要普遍基本收入来应对。随着人工智能的推广,这是否改变了你对世界各国和各国之间收入不平等问题的看法?
阿尔特曼:
让我举个例子。我们推出了OpenAI非营利组织计划,这是一个新举措,旨在让我们的工具对非营利组织更便宜、更广泛地可用。比如说有折扣,有分享最佳实践的方法,人们已经在用这些工具做了惊人的工作。
一个例子是国际救援委员会,他们使用我们的工具,并从整合中获得了很好的效果,支持在真正危机地区的教师和学生。我认为这是一个例子,展示了这些工具因为可以自动化一些困难的任务,并使智能更广泛地可用,能够真正帮助那些需要帮助的人,比起已经富裕的环境中的人们。因此,我们对这个项目的启动感到非常兴奋。这也是你所谈到的一个例子。
你可以看到,人工智能在很多方面对最贫困的人们帮助更大,而不是最富有的人们。我们对此非常有信心,这也是我们想要构建这些工具的一个重要原因,我认为这也是技术历史和发展轨迹的重要部分。所以这肯定会发生。
我认为技术在提升世界的富足、繁荣方面做了很多工作,不管你怎么称呼它。我对此持乐观态度,我不认为这需要任何特殊的干预。我仍然认为,尽管我不知道具体是什么,但在很长一段时间内,不是一两年内,社会契约可能需要一些改变,鉴于我们预计这项技术的强大程度。我不相信不会有任何工作可做,我认为我们总是能找到新的事情来做,但我确实认为整个社会结构本身将会面临一些争论和重新配置。
主持人:
而这种重新配置将由大型语言模型公司主导吗?
阿尔特曼:
不,不,不,这只是整个经济运作的方式和我们社会决定要做的事情。这种情况已经持续很久了,随着世界变得越来越富有,社会安全网就是一个很好的例子。我预计我们会决定在这方面做得更多。
主持人:
好的,让我问你另一个我担心的大问题。随着我们进入人工智能的下一次迭代,我最担心的一件事是,网络变得几乎无法理解,因为创建网页、编写故事等变得如此容易,内容泛滥,网络几乎变得难以导航和浏览。你会担心这个问题吗?如果你认为这是一个真实的可能性,有什么可以做的来减少这种可能性?
阿尔特曼:
人工智能在很多方面对最贫困的人们帮助更大,而不是最富有的人们
。我认为你已经可以看到一些迹象,比如有人使用ChatGPT,有时你可以比四处搜索和点击更有效地获取信息。互联网可以被带到你面前,我认为这是人工智能发展的一个很酷的方面。所以我认为我们使用互联网的方式可能会有变化,但我不担心它会被生成的垃圾文章覆盖而变得无法理解。
主持人:
听你这么说,我似乎看到一个互联网几乎分裂的世界,只剩下10或20个大型语言模型作为你的界面。这是你所看到的情况吗?
阿尔特曼:
不是的,我认为我可以想象一些版本,比如整个网络被分解成组件,然后有一个AI为你实时拼凑出完美的网页,每次你需要什么东西时,一切都会即时呈现给你。但我无法想象一切都集中到一个网站上,这感觉违背了我的所有直觉。