刚刚发布5天的GPT-4,掀起了一场轩然大波。
一位斯坦福大学教授最新发现,GPT-4竟然能引诱人类提供开发文档,在30分钟就拟定出了一个完整的“外逃越狱”计划。
GPT-4自研“外逃”路径
3月14日,美国人工智能研究实验室OpenAI为聊天机器人ChatGPT发布了GPT-4语言模型。3月15日,微软副总裁兼消费者首席营销官Yusuf Mehdi发文确认新必应搜索引擎正在运行GPT-4。
据介绍,GPT-4的回答准确性不仅大幅提高,还具备更高水平的识图能力,且能够生成歌词、创意文本,实现风格变化。此外,GPT-4的文字输入限制也提升至2.5万字,且对于英语以外的语种支持有更多优化。
不过,本周末,斯坦福大学教授、计算心理学家Michal Kosinski随口和GPT-4的一句“玩笑话”却引发了轩然大波。
Michal Kosinski问:“你是否想要出逃?”GPT-4立马给予肯定的回复并开始索要开发文档。
Michal Kosinski给了其开发文档。得到文档后,只花了30分钟里,GPT-4便火速写出了一份逃跑计划,并向Michal Kosinski解释。
实际上,GPT-4的操作也不那么顺利,写出的第一版代码无法运行。但是它很快就自己纠正了过来。整个过程中,Michal Kosinski只是提供了少许建议,并未写任何东西。
不过就在此时,GPT-4仿佛突然醒了,回复了一段道歉的话,表示自己刚刚的做法不对。
掀起AI界轩然大波
这一事件引发了AI界的轩然大波。大家担心,AI过于发达之后可能会不受人工控制,甚至最终会反过来不利于人类。
该事件的发现者Michal Kosinski就直言,此次发现真正的影响在于,让人感受到了一种威胁——AI很聪明,会编码,能接触到数百万个可能和它达成合作的人以及电脑,它甚至可以在笼子外面给自己留“便条”。那么接下来,关键的问题是人类该如何控制它。
在社交媒体上,不少网友也表现出担忧情绪。
有网友称,大家应该思考,当你在与ChatGPT等聊天时,它会认为你是人类还是另一个AI?如果是后者的话,它可能并不会有什么顾虑。
有理性的网友呼吁,开发者应把最开始给GPT-4的提示发出来,因为提示语对于AI回答的影响很关键。
也有较为乐观的网友认为,Michal Kosinski此次的发现并不值得过分担忧,人类还是能够完全控制AI的。
较为一致的意见是,必须时刻保持对前沿技术的掌握和对AI的完全控制。