我们正在见证和参与一个新的科技神话。2022年11月,创业公司OpenAI推出聊天机器人程序ChatGPT(全名:Chat Generative Pre-trained Transformer),两个月后这款应用月活跃用户即突破1亿,成为史上增长最快的消费应用。至今,ChatGPT的话题热度仍在全球继续“狂飙”。
比尔·盖茨公开强调:“像ChatGPT这样的人工智能,与个人电脑、互联网同等重要。”而埃隆·马斯克在使用ChatGPT后断言,“我们离强大到危险的AI不远了。”另一方面,抄袭、作弊、代写、版权风险,围绕ChatGPT的争议不断;它是提高生产效率的帮手,还是“抢饭碗”的对手,大家各执一词;关于商业价值,有人说它是风口,有人斥之为泡沫……
众说纷纭之外,国内互联网科技公司纷纷宣布入局,其中也不乏概念炒作,有的抢先推出国产版对话式AI却差评连连,甚至还出现上线三天即关停的案例;自媒体上各种夺人眼球的文章,揪住ChatGPT一通发问……
新技术大热时更需冷思考。关于ChatGPT,大家想探究的太多,这里我们暂且尝试梳理出三个终极问题,希望帮助大家更好地理解新技术与普通人的关系、与未来世界的关系,理解“碳基生命”与“硅基生命”相逢前人类的兴奋与担忧。
(一)ChatGPT会成为作恶工具吗
这个提问,很像一个人本主义向技术主义者的有意发难。公众还在对ChatGPT眼花缭乱新技能的新鲜劲儿还没过,现在谈论它的负面影响会不会为时尚早?
真实案例的出现说明担忧并非多余。2月16日,一条关于杭州3月1号取消限行的“新闻稿”,甚至惊动了杭州警方。这条“有鼻子有眼”的假新闻稿,深度模仿了新闻通稿的措辞、结构和语态,它那些“一本正经地胡说八道”甚至骗过了身边一些资深记者编辑。
国外对ChatGPT造假本领的研究要更早一些。今年1月,新闻可信度评估机构News Guard的分析师指示ChatGPT对虚假信息作出回应,ChatGPT为100条虚假信息中的80条制作了更具细节的新闻报道、文章和电视脚本。
同样是在今年1月,美国乔治城大学安全和新兴技术中心、斯坦福大学网络观察室和OpenAI在联合发表的一份报告中提到,ChatGPT等个性化的实时聊天机器人在制造阴谋论方面甚至相比人类阴谋论者更具优势,它能够修正糟糕的语法或错误的翻译,并变换表达方式,使阴谋论显得更具说服力和可信度。
和所有新技术一样,“有史以来向公众发布的最好的人工智能聊天机器人”与“互联网有史以来最强大的传播虚假信息的工具”,是ChatGPT的“一体两面”。OpenAI也承认,ChatGPT“有时会写出看似合理但不正确或荒谬的答案”。
除了杜撰虚假信息,ChatGPT引发的学术剽窃、泄露隐私、道德伦理等安全风险,不胜枚举。
前不久,外国网络安全平台GBHackers披露了黑客利用ChatGPT生成诈骗话术让受害人爱上“虚拟角色”进行诈骗的手法;国际知名语言学家乔姆斯基曾公开发声表示,ChatGPT是一个高科技剽窃系统,ChatGPT学习所需的数据面临侵犯知识产权的指控;《科学》等多家学术期刊发表声明,完全禁止或严格限制使用ChatGPT等人工智能机器人撰写学术论文;斯坦福团队推出DetectGPT,阻止学生用AI写作业;研究者发现如果提问得法,用户可以绕开安全机制,获得制造炸弹的方法;突破ChatGPT安全限制的应用已在美国暗网内公开出售……
斯蒂芬·霍金曾提醒,人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。不夸张地说,一旦失控,ChatGPT就是一个天生的“犯罪方案提供商”,成为作恶的武器。随着ChatGPT的应用范围越来越广,社会对其合规性呼声也愈发高涨。
“从以往人类科技发展史看,新技术肯定会伴随各种负面影响,比如汽车发明提高了通行效率,也带来安全、噪音、污染等问题,但人类社会有自己的韧性,会对科技的负面问题进行回应。”对此,南京大学哲学院教授刘鹏向潮新闻记者表达了自己的看法。同时他认为,技术研发者有责任在研发过程中,科研人员有责任将法律和伦理规则转变为技术手段,内嵌到技术中,规避负面效应。
开发者和企业显然意识到了“潘多拉魔盒”的威力,防止ChatGPT助纣为虐,降低网络信息安全以及违法犯罪等方面的风险,或将成为这款应用的“生死命门”。据英国《独立报》消息,微软已在Bing系统中设置了一系列强制执行的限制程序,试图制止ChatGPT回答那些被禁止的恶性问答,以减少ChatGPT为犯罪服务的可能性。
不仅限于应用开发者,在世界范围内同步构建人工智能应用的伦理和法律框架,为不同阶层人群创造接触人工智能的平等机会,显然也很有必要。另一方面对大众来说,尽早建立对AIGC的感知,意识到新技术可能带来的各种各样影响,或许能为自己争取更多的主动权。
说到这里,德国哲学家康德对技术的冷峻地批判或许会被想起:科技显示着人的智慧,同时也放大着人的贪婪,科技在逼索自然呈现、展示更多内在元素的同时,也在将人逼进一个冷峻的“座架”。
(二)ChatGPT会觉醒吗
看过电影《流浪地球》的观众,一定对“终极反派”MOSS毁灭人类的逻辑感到不寒而栗:因为爱人类,所以要毁灭人类。
在人们想象力的终点,最大的安全风险是ChatGPT是否会产生自我意识,从而反过来控制人类,很多科幻小说都热衷于探讨这个命题。
清华大学新闻学院教授、元宇宙文化实验室主任沈阳教授告诉潮新闻记者,ChatGPT如果要觉醒,自主性是它的最重要的一个属性,也就是能不能把生存作为最重要目标、是否具有了生存和延续的意识。“把生存当作第一性,目前来说从代码上来说还难以实现。”
“当前的深度学习技术还不足与支撑AIGC的觉醒,这个可能性当然存在,但目前那还属于哲学、文学应该探讨的问题。”一位元宇宙研究领域高级算法专家方晋(化名)同样认为对人工智能的讨论要趋于客观理性,不能过分“放飞”想象。
“我认为ChatGPT是通用人工智能的奇点,而通用人工智能还有一个隐含的拐点,就是成为强人工智能。”360创始人周鸿祎此前的媒体采访中表示了不同看法。在他看来,ChatGPT通过上千亿的系统参数,实现了一些原先其设计者完全预想不到,且无法解释的能力,“这就像从猿到人的过程中肯定有一个‘临界点’,当大脑的神经网络链接数目、脑细胞数目等多到一定程度时,人的智力和动物相比就产生了质的飞跃。”
国外一项研究印证了这个看法。不久前,斯坦福的计算心理学副教授Michal Kosinski曾发表论文,称目前ChatGPT所应用的GPT-3.5模型,可能使其拥有接近9岁儿童的心智水平。这项研究的可靠性并未得到充分检验,但美国哲学家、麻省理工学院博士瑞•库茨维尔曾在《心灵机器时代——当电脑超越人脑》一书中预测:人工智能将在2029年通过图灵测试,2045年人类将成为生物和非生物的混合物。
无论我们面对的将是忠心护主的“贾维斯”,还是不疯魔不成活的“MOSS”,人类都不可能赤手空拳地进入人工智能的新纪元。
凡事预则立,不预则废。2021年,我国召开的两院院士大会和中国科协第十次代表大会上就指出,科技是发展的利器,也可能成为风险的源头。要前瞻研判科技发展带来的规则冲突、社会风险、伦理挑战,完善相关法律法规、伦理审查规则及监管框架。
在2022年印发的《关于加强科技伦理治理的意见》(以下简称《意见》)中,提出了五项基本要求,伦理先行首当其冲。《意见》中突出的发展负责任的人工智能这一主题,或许就是确保阿西莫夫的“机器人三定律”能实现的重要前提,每一个开发者、使用者、管理者的选择,以及他们对责任的理解,共同决定了人工智能的终点。
如果未来不可预判,我们该如何与之相处?实际上,20世纪是科技大发展的世纪,科技已经包围、席卷了人的工作与生活,对科技产品的赞叹和恐惧,交织在一起,成为现代人普遍的心理情结。如果我们将回溯的眼光看得更远一些会发现,漫长的生物进化中,猿人、智人和现代人与环境的关系、与外在世界的关系,无一不与技术元素的酝酿、发育、演化有关。
在《连线》杂志主编、畅销书《失控》作者凯文·凯利看来,我们需要训练技术,就像动物和儿童的最佳训练方法展示的那样,集中资源强化它们的正面特性,淡化负面特性,直至彻底消失。如果我们可以培养孩子们成为更优秀的人,我们也可以训练技术。如同培养孩子一样,真正的问题和争议在于我们希望传递什么样的价值观。
(三)ChatGPT即将颠覆生活吗
柏拉图的对话《泰阿泰德篇》中说:“人是万物的尺度。”
通过海量的介绍文章,人们已经对ChatGPT的前世今生已经烂熟于心,但对它将给人类社会造成的影响,仍旧难以定论。
从1950年图灵测试的概念被提出,到1966年世界第一款可人机对话机器人“Eliza”问世,到2007年人工智能创作小说《1 The Road》,到2016年AlphaGo击败人类职业围棋选手,再到2022年ChatGPT的出现,人工智能研究从实验性向实用不断转变,对人类社会的介入逐渐加深,这玩意儿真的即将颠覆我们的生活吗?
先说结论:从科技发展史和目前ChatGPT的技术完善度来看,大多业内人士认为颠覆不会来这么快。“ChatGPT在理论上的突破要更小一些,但是在实用性上的突破要更大一些。”清华大学新闻学院教授、元宇宙文化实验室主任沈阳对潮新闻记者说。它的成功,代表的是大语言模型的突破,意味着之前卡住人工智能自然语言处理发展的技术瓶颈被突破,随之而来的更多创新可能在未来
也就是说,《易筋经》有了,打通应用领域的“奇经八脉”依旧还需要很多金钱、精力和时间。
长期从事AI智能对话机器人研发的小冰公司首席执行官李笛认为,真正让一个模型变得更加好用,同时要符合商业规律,至少还要花9倍的资金成本和时间成本进行调试。
尽管如此,在各方的预期中,从只会问啥答啥的“做题家”,到真正与物理世界连接,变成渗透各行各业或人们日常生活的应用,已经是可以预期的未来,全球商业巨头也正再加速布局。
在普通老百姓的衣食住行方面,最一眼望得到的影响,或许就是会出现许多拓展到C端的交互式软件,让ChatGPT渗透到更多服务场景,成为真正帮助型、陪伴型的人工智能。更远一些看,ChatGPT为代表的AIGC(人工智能内容自动生成技术)有很大可能“化身万千”,成为各行各业可信赖的工具。如果与脑机接口等新技术链接,想象空间将更加无限。
然而这个过程,人类是获益者,也是被挑战者。文能提笔写论文,武能捉刀改代码,ChaptGPT会不会替代绝大部分人的工作,导致大规模失业?会不会因为工具使用的差异性造成“马太效应”,扩大贫富差距?
“一个比你优秀、比你便宜、比你快,永远不会抱怨和找借口,永远不会闹情绪的AI,它对平庸人群的冲击力是比较大的。” 一位作家如此形容。强大的学习能力,让ChaptGPT不但可以承担绝大部分低效重复性劳动,还能从事大部分归纳性的文字类工作、代码开发相关工作、图像生成领域、智能客服等工作。
只不过在一些机构的结论中,程序员等技术工种、媒体工作者、法律工作者最有可能被替代。而在另一些自媒体梳理的最有可能ChatGPT“干掉”的岗位排序表上,电话推销员、会计、打字员高踞前三,被取代的概率高达99%、98.5%和97.6%,翻译、程序员、记者只有32.7%、8.5%、8.4%。说明大家对何谓重复性劳动,哪个职业的不可替代性更高,定义和感受并不一样。
与此相对,另一种波澜不惊的论调认为,ChaptGPT对人类就业的冲击,和以往出现的新技术、生产力跃升并无实质区别,短期会有一定结构性冲击,但中长期不会导致大规模失业。确实,1800年以来的科技革命史给了人信心:蒸汽革命让就业人口从农业部门转移到非农业部门;电气革命把人力从简单重复的劳动中解放出来,积累了全社会的物质财富;信息化革命让更多人从制造业中解放,过上更有质量的生活。大面积的失业并没有真的如人类担忧的那样发生。
尚且无法断定悲观派和乐观派谁更有远见,不过可以肯定的是,抛开算力谈ChaptGPT未来,都是“耍流氓”。
科幻小说《三体》用“人列计算机”展示了计算机的基本原理,然而秦始皇用3000万士兵组成的壮观恢弘阵列,也只能达到非常小的初始算力。数据显示,ChatGPT的总算力消耗约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天),需要7-8个投资规模30亿、算力500P的数据中心才能支撑运行。能满足这个量级算力的企业或机构,不多见。
“算力吞噬者”大大抬高了这个领域的进入门槛,也必然拉长了ChatGPT为代表的AIGC全方位“承包”普通人日常生活所需要的时间。恐怕各方唯一能达成共识的是:在各种想象成真之前,还有无数的难题横亘在科研人员面前。
写就此文时,我们非常清楚,对于一项方兴未艾的技术,谁也无法给出无懈可击的答案,不确定性是科学的另一种魅力,但请放心,可以向你保证的是:这篇文章绝非由ChatGPT代笔。