这几天,可以说是“火爆全宇宙”!

大家想出各种各样奇奇怪怪的问题,尽情“投喂”给这款聊天机器人,看它如何给出或专业准确的回复,或驴头不对马嘴的搞笑答案。

记者也出了些题让作答,一起来看看它的“小作文”写得怎么样吧!没想到,其中一篇,记者的小编同事被戳中痛点,破防了!

先看第一个:

对于特定采访对象,贴心设计了有针对性的提问,可以说基本达到了记者们的应有水平吧。

来看下一个题目:

是懂新闻行业的!这描述也太生动贴切了吧,简直“人间真实”!

它还对从事新闻工作的意义进行了升华,有小编看完后对记者表示,自己顿感肩头责任重大,看着看着,不禁眼眶一热,破防了!

(强行与AI共鸣)

再来看几个:

从写工作周报、写求职信、回答公务员考试试题的情况来看,的表现还行。那么,它的工作原理是怎样的?

根据介绍,相比之前的GPT模型,其对采用了全新的训练方式,即为一种“从人类反馈中强化学习”的训练方式。

这意味着,用户输入信息越多,深度学习、持续改进的机会也就越多,对人类语言的理解和“反刍”,也会越来越深刻。换言之,是广大用户义务帮来“教”自家的“娃”。

对此,中新网记者专访清华大学国强教授、智能产业研究院(AIR)首席研究员聂再清,对的创新性、特点以及应用前景等,进行深入解析。

中新网:

究竟是一个什么样的产品?

聂再清:

本质上是一个基于统计的语言模型。当然,它现在还只是一个语言模型,以后应当会逐步发展到多模态,比如为图片(拟出)对应文字,给出对图片的理解等。与人聊天只是它能力的一方面,更多地还是内容生成的能力,包括未来可能更多地把它运用到写作上。

官网介绍为一种“优化对话的语言模型”。图片来源:官网截图

中新网:

大家或多或少接触过国内已有的一些语音聊天机器人,比如扫地机器人、语音智能助手等,与这类机器人相比,有哪些区别?

聂再清:

之前的聊天机器人已经能够通过语音交互,帮用户完成很多重复性的工作。这类机器人在业界比较成功的应用,是运用基于任务型的对话,通过意图理解、槽值填充,把问题参数抽出来,然后去回答用户的问题,比如智能客服;或帮用户完成一个智能家居的操作,比如AIoT语音助手。

它们更多是属于一些封闭域内任务完成型的机器人,通过对话真正去执行某些特定领域的功能,首先得把事情做对,才能获得用户信任。这是这类机器人最关键的一项能力。

更多地则是实现开放域的对话、输出写作内容等。跟以前的聊天机器人比,最让人印象深刻的就是能用像模像样的“人话”来回答几乎任何领域的用户问题,并对上下文有一定程度的理解。

资料图:美国企业家埃隆·马斯克。

中新网:

一些人以 “从0到1”、“划时代的革命性突破” 来形容, 美国富豪埃隆·马斯克也发文称“好得吓人”。您认为有那么厉害吗?其创新性体现在哪些方面?

聂再清:

在算法层面一个比较重要的创新,就是把强化学习引入到大模型的训练和使用上。之前实现开放域对话的最大困难,在于用户输入的话题各种各样,任务空间太大,很难有足够的监督信号拿来训练。

那么,如今通过利用人类反馈信号学习到的奖励模型( model),来为任意一个问题自动估算监督信号,充分利用强化学习的尝试探索()能力来解决开放域任务空间太大的挑战。这是一个比较好的创新应用。它在回答开放域问题时基本上能做到逻辑上比较通畅,句式上也像模像样,这不是很容易就能做到的。

替代测试程序_什么叫替代测试_chatgpt能取代测试吗

同时用到的GPT3.5,作为一个基础语言模型的质量也是非常高的。这需要大量的数据预处理工作,需要把各领域的语料整理好“喂”进大模型,在训练过程中不断积累能力,才能产生一个如此高效的基础语言模型。

另一个比较重要的能力,就是能拒绝回答一些它判断为不适合回答的问题,懂得“拒绝”。实际上之前一些聊天机器人在设计时,也会谨慎处理一些比较敏感的问题,以及跟人类主流价值观不契合的内容。也在不断提升这种能力,防范生产出敏感或有偏见的内容。

的试用页面上,标注了偶尔可能输出错误、有害、有偏见信息;对2021年后的世界认知有限等说明。

中新网:

大家体验后发现,不是完美的,还是会出错,也就是“一本正经地胡说八道”。您认为它需要改进的方面有哪些?

聂再清:

进行开放域聊天最大的好处,是它什么话题都接得住,能一直聊下去,有连续性。但最大的坏处是,有时用户无法判断它是否正确。如果提问人对问题答案不了解的话,会觉得它答得不错;但对一些不常见,提问人又知道答案的问题,就会发现有可能用一本正经的口气,编出了错误答案。

因此,不看具体知识点的话,似乎回答得很专业。但它目前难以真正理解和回答开放域里有具体知识点的问题,在处理开放域的问题上实际上还是基于概率,基于前一个值来生成下一个值。要通过图灵测试,还要继续努力。

中新网:

是把所有输入给它的信息复制、堆砌起来,还是能生成原创内容?它有“创造力”吗?

聂再清:

可以视为是在搞创作,因为这是它经过大量学习后,基于概率自己产生的内容。让它写一封邮件、一首诗,也可以输出看上去“长得很像”用户所要求的东西。

但比如去写论文、搞数学论证、去做实验并得出结果,它现在应该还没有那么强大,还不能系统地提出具有创新性的观点,但是它输出的一些内容可能会对科研工作带来一些启发。

在谁可能取代自己这个问题上,列出了一些对象,中国企业华为的产品上榜。

中新网:

您认为中国需要拥有类似于这样,属于自己的语言大模型吗?

聂再清:

我认为我们特别有必要去构建像这样一个大的语言模型,中国需要有自己的这类产品。不光可以聊天、帮助写作,也是很多下游人工智能任务的基础模型( model)。一些中国企业已经在跟进,相信接下来我们国家会出现类似的模型。但是具体功能和质量能否超越,需要等发布以后才知道。这需要我们的企业在资源和人才投入上有耐心,具备长远的眼光,不能太注重短期的商业回报。

当然,我们也不需要每个企业都做一个,造成资源浪费。

中新网:

一些观点认为,将来会取代部分人的职业。您怎么看?

聂再清:

我认为,虽然有一些模板化、重复性的写作可以被取代,但应该说它还是作为人类的助手更合适。比如帮助用户在从事写作、写代码、商业提案、广告文案设计、翻译等工作时,可以大幅提高他们的工作效率。

它应当被用作一种提高效率的工具,成品最终还是要人类来把关和确认。而且如果出了错,责任应该还是落到具体的人身上。

中新网:

这样的语言交互类产品,是否存在隐私泄露的风险?

聂再清:

用户向提问的问题,本身就带有信息量,向它输入信息,不排除有一定的信息泄露风险,包括信息跨境流动问题。这取决于这个产品的研发人员、运营人员、数据管理者等,是否对相关信息进行了妥当处理,不让个人隐私等外泄,或用于其他用途。如果有问题,责任应由他们承担。

看完专家的权威分析,再来看看我们还给布置了哪些有趣的“作业”吧!

如果有人发来这样一封情书,你会心动吗?

看到小帅、大壮、小美几个名字,你的耳畔有没有自动响起一段充满悬疑感的音乐?

这首诗说明,对于博大精深的中华文化,还有很多东西要学习……

看着这“跌宕起伏”的小说情节,只能说尽力了!

虽然知道是语言模型,记者还是想“逼”它画画,但是直接让它画,它回答做不到,最后记者用“打印”指令,让它“画”出了一只数码小猫,送给大家。

,和你想象中的一样吗?

中新网首席国际记者:孟湘君