想刁难ChatGPT?没想到小编破防
华语社:中新网2月11日电 (记者 孟湘君)这几天,ChatGPT可以说是“火爆全宇宙”!
大家想出各种各样奇奇怪怪的问题,尽情“投喂”给这款聊天机器人,看它如何给出或专业准确的回复,或驴头不对马嘴的搞笑答案。
记者也出了些题让ChatGPT作答,一起来看看它的“小作文”写得怎么样吧!没想到,其中一篇,记者的小编同事被戳中痛点,破防了!
先看第一个:
对于特定采访对象,ChatGPT贴心设计了有针对性的提问,可以说基本达到了记者们的应有水平吧。
来看下一个题目:
ChatGPT是懂新闻行业的!这描述也太生动贴切了吧,简直“人间真实”!
它还对从事新闻工作的意义进行了升华,有小编看完后对记者表示,自己顿感肩头责任重大,看着看着,不禁眼眶一热,破防了!(强行与AI共鸣)
再来看几个:
从写工作周报、写求职信、回答公务员考试试题的情况来看,ChatGPT的表现还行。那么,它的工作原理是怎样的?
根据OpenAI介绍,相比之前的GPT模型,其对ChatGPT采用了全新的训练方式,即为一种“从人类反馈中强化学习”的训练方式。
这意味着,用户输入信息越多,ChatGPT深度学习、持续改进的机会也就越多,对人类语言的理解和“反刍”,也会越来越深刻。换言之,是广大用户义务帮OpenAI来“教”自家的“娃”。
对此,中新网记者专访清华大学国强教授、智能产业研究院(AIR)首席研究员聂再清,对ChatGPT的创新性、特点以及应用前景等,进行深入解析。
中新网:
ChatGPT究竟是一个什么样的产品?
聂再清:
ChatGPT本质上是一个基于统计的语言模型。当然,它现在还只是一个语言模型,以后应当会逐步发展到多模态,比如为图片(拟出)对应文字,给出对图片的理解等。与人聊天只是它能力的一方面,更多地还是内容生成的能力,包括未来可能更多地把它运用到写作上。
中新网:
大家或多或少接触过国内已有的一些语音聊天机器人,比如扫地机器人、语音智能助手等,ChatGPT与这类机器人相比,有哪些区别?
聂再清:
之前的聊天机器人已经能够通过语音交互,帮用户完成很多重复性的工作。这类机器人在业界比较成功的应用,是运用基于任务型的对话,通过意图理解、槽值填充,把问题参数抽出来,然后去回答用户的问题,比如智能客服;或帮用户完成一个智能家居的操作,比如AIoT语音助手。
它们更多是属于一些封闭域内任务完成型的机器人,通过对话真正去执行某些特定领域的功能,首先得把事情做对,才能获得用户信任。这是这类机器人最关键的一项能力。
ChatGPT更多地则是实现开放域的对话、输出写作内容等。跟以前的聊天机器人比,ChatGPT最让人印象深刻的就是能用像模像样的“人话”来回答几乎任何领域的用户问题,并对上下文有一定程度的理解。
中新网:
一些人以 “从0到1”、“划时代的革命性突破” 来形容ChatGPT, 美国富豪埃隆·马斯克也发文称“ChatGPT好得吓人”。您认为ChatGPT有那么厉害吗?其创新性体现在哪些方面?
聂再清:
ChatGPT在算法层面一个比较重要的创新,就是把强化学习引入到大模型的训练和使用上。之前实现开放域对话的最大困难,在于用户输入的话题各种各样,任务空间太大,很难有足够的监督信号拿来训练。
那么,如今ChatGPT通过利用人类反馈信号学习到的奖励模型(reward model),来为任意一个问题自动估算监督信号,充分利用强化学习的尝试探索(exploration)能力来解决开放域任务空间太大的挑战。这是一个比较好的创新应用。它在回答开放域问题时基本上能做到逻辑上比较通畅,句式上也像模像样,这不是很容易就能做到的。
同时ChatGPT用到的GPT3.5,作为一个基础语言模型的质量也是非常高的。这需要大量的数据预处理工作,需要把各领域的语料整理好“喂”进大模型,在训练过程中不断积累能力,才能产生一个如此高效的基础语言模型。
另一个比较重要的能力,就是ChatGPT能拒绝回答一些它判断为不适合回答的问题,懂得“拒绝”。实际上之前一些聊天机器人在设计时,也会谨慎处理一些比较敏感的问题,以及跟人类主流价值观不契合的内容。ChatGPT也在不断提升这种能力,防范生产出敏感或有偏见的内容。
中新网:
大家体验后发现,ChatGPT不是完美的,还是会出错,也就是“一本正经地胡说八道”。您认为它需要改进的方面有哪些?
聂再清:
ChatGPT进行开放域聊天最大的好处,是它什么话题都接得住,能一直聊下去,有连续性。但最大的坏处是,有时用户无法判断它是否正确。如果提问人对问题答案不了解的话,会觉得它答得不错;但对一些不常见,提问人又知道答案的问题,就会发现ChatGPT有可能用一本正经的口气,编出了错误答案。
因此,不看具体知识点的话,ChatGPT似乎回答得很专业。但它目前难以真正理解和回答开放域里有具体知识点的问题,在处理开放域的问题上实际上还是基于概率,基于前一个值来生成下一个值。要通过图灵测试,还要继续努力。
中新网:
ChatGPT是把所有输入给它的信息复制、堆砌起来,还是能生成原创内容?它有“创造力”吗?
聂再清:
可以视为ChatGPT是在搞创作,因为这是它经过大量学习后,基于概率自己产生的内容。让它写一封邮件、一首诗,也可以输出看上去“长得很像”用户所要求的东西。
但比如去写论文、搞数学论证、去做实验并得出结果,它现在应该还没有那么强大,还不能系统地提出具有创新性的观点,但是它输出的一些内容可能会对科研工作带来一些启发。
中新网:
您认为中国需要拥有类似于ChatGPT这样,属于自己的语言大模型吗?
聂再清:
我认为我们特别有必要去构建像ChatGPT这样一个大的语言模型,中国需要有自己的这类产品。ChatGPT不光可以聊天、帮助写作,也是很多下游人工智能任务的基础模型(foundation model)。一些中国企业已经在跟进,相信接下来我们国家会出现类似的模型。但是具体功能和质量能否超越ChatGPT,需要等发布以后才知道。这需要我们的企业在资源和人才投入上有耐心,具备长远的眼光,不能太注重短期的商业回报。
当然,我们也不需要每个企业都做一个ChatGPT,造成资源浪费。
中新网:
一些观点认为,ChatGPT将来会取代部分人的职业。您怎么看?
聂再清:
我认为,虽然有一些模板化、重复性的写作可以被ChatGPT取代,但应该说它还是作为人类的助手更合适。比如帮助用户在从事写作、写代码、商业提案、广告文案设计、翻译等工作时,可以大幅提高他们的工作效率。
它应当被用作一种提高效率的工具,成品最终还是要人类来把关和确认。而且如果出了错,责任应该还是落到具体的人身上。
中新网:
ChatGPT这样的语言交互类产品,是否存在隐私泄露的风险?
聂再清:
用户向ChatGPT提问的问题,本身就带有信息量,向它输入信息,不排除有一定的信息泄露风险,包括信息跨境流动问题。这取决于这个产品的研发人员、运营人员、数据管理者等,是否对相关信息进行了妥当处理,不让个人隐私等外泄,或用于其他用途。如果有问题,责任应由他们承担。
看完专家的权威分析,再来看看我们还给ChatGPT布置了哪些有趣的“作业”吧!
如果有人发来这样一封情书,你会心动吗?
看到小帅、大壮、小美几个名字,你的耳畔有没有自动响起一段充满悬疑感的音乐?
这首诗说明,对于博大精深的中华文化,ChatGPT还有很多东西要学习……
看着这“跌宕起伏”的小说情节,只能说ChatGPT尽力了!
虽然知道ChatGPT是语言模型,记者还是想“逼”它画画,但是直接让它画,它回答做不到,最后记者用“打印”指令,让它“画”出了一只数码小猫,送给大家。
ChatGPT,和你想象中的一样吗?(完)