获取更多信息请下载APP

ChatGPT爆火出圈!是“金矿”还是“天坑”?

来源:北京科技报    发布日期:2023-02-09 14:48:49   阅读量:0

创作剧本、修改代码、构思小说......它在广大网友的“鞭策”下不断突破自我。ChatGPT为何如此智能?火爆出圈的背后有哪些隐忧?

整理/新媒体编辑   段大卫 

会写诗歌,编代码,能创作剧本,还可以帮你写论文……似乎在一夜之间,周围不少人都在讨论一款名为ChatGPT的人工智能聊天程序。比起聊天机器人前辈们害怕“言多必失”,ChatGPT自信满满,它总能实现人类的各种诉求,并且表现欲十足。

从“人工智障”到“人工智能”,ChatGPT虽有时一本正经胡说八道,但它对于人类语言的理解和处理已经游刃有余。

◈ ◈ ◈

“拟人化”的智能AI

ChatGPT,是一款聊天机器人模型。它可以与用户进行实时对话、回答大量问题。从国际关系、百科知识,到使用代码设计程序,都难不倒它。

(来源:ChatGPT)

它甚至能够完成包括但不限于写代码、写小说、写文案的各种任务。

(来源:ChatGPT)

也有网友预测:“或许我们每个人都将拥有自己的律师AI了,咨询律师的费用也会大大下降。接下来就是医生AI、营养师AI……”

(来源:Twitter)

目前来看,ChatGPT的优势在于逻辑推理,这是算力与语料调教后的技术成果。但它的“认知”建立在虚拟训练文本上,它的能力依赖于训练数据集中的统计规律,而它本身并不具备对复杂和抽象系统的理解能力。因此,ChatGPT所掌握的知识范围是被限定了的,它无法预测未发生过的事,无法分清真实和虚构,也不能深入问题的细节、执行标准的计算机算法,在部分领域还缺少知识的准度。

ChatGPT研发团队曾表示,ChatGPT“可能偶尔产生不正确的信息”,以及“可能偶尔产生有害的指示或有偏见的内容”。因此,用户在使用这一聊天机器人时,需要时刻注意对它的回答进行准确性鉴定。

比如,一位网友就曾在说服它明白“27能被3整除”这个问题上废了好大力气。

(来源:ChatGPT)

但与此同时,它可以自证、认错的能力也让人们感到震惊,有网友对此表示,“虽然有点数学上的小错误,但在整体语义识别和逻辑推演上,其成熟度堪称恐怖。这一段讨论,甚至比人人交流更清晰简洁。”

◈ ◈ ◈

是坦率还是“口无遮拦”?

人工智能聊天程序并不新鲜。比如,不少网络平台使用的人工智能客服。不过,很多人工智能客服带给人的感受实在一言难尽,机械重复的话术、“礼貌”而毫无信息增量的反馈等,都让人“想摔手机”。ChatGPT诞生及其给人留下的“惊艳”印象,未必是因为它使用了多具有突破性的技术,而是它搜集了更多的素材,因此能够更加“聪明”地回答用户的提问。

Open AI 公司在研发时还注重对Chat GPT道德水平的训练根据预先设计的道德准则,Chat GPT聊天机器人会对带有恶意、暴力、犯罪等含义的提问和请求说“不”。

但当人们给出一定条件后再进行提问,Chat GPT的回答看起来“能文能武”。

(来源:ChatGPT)

从上个充满“激进性”的对话可以看出,ChatGPT的特征在于它可以和用户进行多轮对话,这也是之前的聊天机器人所办不到的。

和常见的大数据模型一样,ChatGPT同样也是经过“预训练+微调”的过程,但是OpenAI这次在数据收集上设置上有了细微的差别。

Open AI 公司官方称,Chat GPT 采取了全新的训练方式 ——“从人类反馈中强化学习”(Reinforcement Learning from Human Feedback,RLHF)。

(来源:ChatGPT)

在训练原始模型的时候,人类训练师会扮演对话的双方提供对话作为学习资料。而当人类在扮演聊天机器人一方的时候,Open AI公司也会让原始模型生成一些建议反过来帮助人类训练师更好地扮演聊天机器人,也就是说通过海量的数据训练让 AI 学会“思考”。与此同时,人类训练师会对它的回答进行排名和评级,然后将这些信息反馈到系统中,让 Chat GPT 不断进行优化学习。

ChatGPT其实并不能理解自己在说些什么,它也是通过学习海量的数据(文本或对话),再对其中数据出现的规律强行进行拟合,从而在开放场景下做出预测,这样就会根据问题得到一个通顺的回答。

OpenAI也表示,ChatGPT有时会写出貌似合理但不正确或荒谬的答案,或者过度使用一些词句和特定表达。不过相比于之前的语言模型,ChatGPT确实有很大进步。

(来源:Twitter)

不同于智能语音助手的傻瓜式回答,ChatGPT“上知天文,下知地理”,显得格外“聪明”。难怪马斯克也曾公开评价说:“我们离强大到危险的AI不远了。”

◈ ◈ ◈

火爆出圈背后也有隐忧

虽然几年前人们已经在谈人工智能时代的到来,但当ChatGPT如海啸般迎面砸来时,学术界也对此提出应对。目前来看,最主要的应对措施就是政策封堵、禁止使用或限制性使用。

(来源:ChatGPT)

由于学校中已出现学生使用AI生成的内容冒充个人作业,而人工智能造成的剽窃行为在当下的学术规则中很难得到证明,包括英国、法国、美国在内的诸多教育部门均出台政策,禁止在学校使用ChatGPT。1月27日,法国顶尖学府之一的巴黎政治学院宣布该校将禁止使用ChatGPT,“ChatGPT软件正在向全世界的教育工作者和研究人员提出一个涉及欺诈和剽窃的严肃问题,”“在没有透明参考的情况下,除特定课程目的外,学生不得使用该软件制作任何书面作品或演示文稿。”

针对使用ChatGPT撰写的学术论文,目前,多家知名学术期刊正在更新编辑规则。《科学》明确禁止将ChatGPT列为合著者,且不允许在论文中使用ChatGPT所生产的文本。《自然》则表示,可以在论文中使用大型语言模型生成的文本,其中也包含ChatGPT,但不能将其列为论文合著者。

学术界外,ChatGPT的发展也让人感到担忧。在《福布斯》的专访中,美国微软公司联合创始人比尔·盖茨曾盖茨表示,“人工智能是“2023年最热门的话题”,并且有能力“改变就业市场”,但是,它可能会失控或走向错误的方向,这将引来大量争议。”

对于AI与人类的相处关系,盖茨对此回答说,“长期来看,正是人们所担忧的失控问题。如果控制AI的人类将其带上歧途怎么办?万一人类丧失控制权又怎么办?这一定将引发争论。AI将变得有争议,它也将在一定程度上改变就业市场。这让我们不禁思考,边界在哪里?”

人工智能是一项重要的技术,现在,它正在改变我们的日常生活,它已经被广泛应用于各种行业,从自动驾驶到金融服务,从医疗诊断到营销分析。总的来说,人工智能发展历程走了一条漫长而艰辛的道路,从最初的模拟人类智能行为到现在的广泛应用,它改变了我们的生活方式,也改变了未来的发展趋势。但同时,也应注意它给我们带来的问题和挑战。

(内容综合自新华网、光明网、澎湃新闻、每日经济新闻、正观新闻等)