chatGPT生成的程序小狗。近日,一款名为ChatGPT的聊天机器人火遍全球,该机器人的研发公司OpenAI表示,ChatGPT上线短短5天用户数量已突破100万。在网友们晒出的截图中,ChatGPT不仅能流畅地与人对话,还能写代码、找Bug、做海报、写年报……甚至还以鲁迅的文风进行天马行空的创作,几乎无所不能。ChatGPT并非市面上唯一一款对话型人工智能系统。早在去年的I/O开发者大会上,谷歌就演示了专门为对话而建立的LaMDA系统。今年春天,一名谷歌工程师甚至表示LaMDA有自己的“意识”。虽然这一说法遭到了许多人的强烈批评,但却实实在在地抓住了公众的想象力。
对话型AI有何玄机?
ChatGPT是人工智能研究实验室OpenAI在11月30日发布的全新聊天机器人。在OpenAI的官网上,ChatGPT被描述为优化对话的语言模型,是InstructGPT的姐妹模型。这个模型以对话的形式进行互动,使得ChatGPT能够回答后续问题、承认错误、发出质疑并拒绝不适当的请求。
据澎湃新闻此前报道,ChatGPT采用了和InstructGPT一样的人类反馈中强化学习(RLHF,Reinforcement Learning from Human Feedback)技术,通过将抹去个人信息的人工注释添加到训练集之前,利用这些数据来进行模型的微调,达到了提高帮助性和真实性,同时减轻语言模型的危害和偏见的效果。
LaMDA则是谷歌公司在去年5月推出的一款突破性对话应用语言模型技术(The Language Model of Dialogue Applications),谷歌称其可以参与流动性的自由对话。据《纽约时报》12月12日报道,LaMDA即人工智能研究人员所称的神经网络,是一个松散地、仿照大脑中神经元网络的数学系统。这一技术在谷歌翻译、自动驾驶等服务中也有使用。
这样一个神经网络会通过分析数据来学习技能,例如,通过在数以千计的猫咪照片中找出固定模式,从而学会识别一只猫。
5年前,谷歌和OpenAI等实验室的研究人员开始设计神经网络,分析海量的数字文本,包括书籍、维基百科、新闻报道和在线聊天记录,科学家们将它们称为“大型语言模型”。该技术可以自动生成文本,并结合不同的概念、模仿人们写的东西。
通过ChatGPT,OpenAI已经努力完善了这项技术。ChatGPT不像LaMDA那样能够进行自由对话,它被设计得更像是Siri、Alexa这类的数字助手。不过与LaMDA一样,ChatGPT是在从互联网上摘取的数字文本的海洋中训练而成的。
聊天机器人并不总说实话
经过海量信息的训练,ChatGPT这类的聊天机器人能够很轻易地提供想法、回答问题,但是它们并不总是说实话。它们提供的答案有时真假参半,这导致人们开始担忧,随着技术的成熟,这类机器人可能会被利用来传播假消息和谣言。
一位来自美国弗吉尼亚州的数据科学家亚伦·马格利斯(Aaron Margolis)告诉《纽约时报》,虽然他时常惊异于LaMDA的开放式对话天赋,但它有时候会“胡编乱造”,因为这是一个被互联网信息训练出来的系统。
当马格利斯要求LaMDA像马克·吐温那样与自己聊天时,LaMDA很快描述了吐温与李维斯·施特劳斯(Levis Strauss)之间的会面,并说马克·吐温在19世纪中期居住在旧金山时曾为李维斯这位牛仔裤大亨工作。这看起来像是真的,但事实是,尽管马克·吐温和李维斯同时居住在旧金山,但他们从未一起工作过。
科学家将这种现象称为“幻觉”——聊天机器人就像一个很会讲故事的人,它们有办法把它们学到的东西重塑成新的东西,但不考虑这些是否真实。
据澎湃新闻此前报道,ChatGPT在释出不久后就遭到了Stack Overflow(一个程序设计领域的问答网站)的抵制。Stack Overflow暂时禁止用户分享ChatGPT生成的回复,因为ChatGPT很容易与用户互动,能够快速生成大量答案,这让网站充斥着许多看似可信但不正确的信息。
OpenAI公司也清楚ChatGPT并不完美。该公司警告称,ChatGPT偶尔可能会“提供不正确的信息”,“产生有害的指令或有偏见的内容”,但OpenAI称计划继续完善该技术,并提醒用户“这还只是一个研究项目”。
人工智能将去向何方?
谷歌、Meta等众多科技公司正在着手解决人工智能的准确性问题。Meta公司最近下线了其聊天机器人Galactica的在线预览功能,因为它反复产生不正确和带有偏见的信息。
但仍有专家警告称,科技公司无法掌控这些技术的命运,像ChatGPT、LaMDA和Galactica这样的系统是基于多年来自由流传的想法、研究论文和计算机代码。《纽约时报》11日评论称,像谷歌和OpenAI这样的公司可以以比别人更快的速度推动技术的发展,但是他们最新的技术已经被复制和广泛传播,他们无法阻止人们利用这些系统来传播错误信息。
ChatGPT上线后,特斯拉CEO埃隆·马斯克在社交平台上表示:“我们离强大到危险的AI(人工智能)不远了”。作为OpenAI公司的创始人之一,马斯克显然无限看好这类新技术的发展,但是他也不否认,强大的新技术往往伴随着危险。
人工智能未来将发展到何种程度尚未可知,但可以确定的是,人工智能的监管与控制问题近在眼前。