本期将目光从本身技术转到以为代表的大规模语言模型(Large Model, LLM),以下简称大语言模型。我们将从大语言模型的商业化说起,去探讨大语言模型的能力和未来。

生成式模型商业化

现如今,生成式AI赛道火热。根据统计数据,2022年生成式AI赛道总共获得约14亿美元的融资,几乎达到了过去5年的总和。、 AI等明星公司,其他初创企业如、Regie.AI、等均获得资本青睐。

融资金额与时间关系图

2022年10月, AI获得约1亿美元融资,发布的开源模型 ,可以根据用户输入的文字描述生成图片,引爆AI作画领域。2022年11月30日,在宣布公测之后,上线5天,全球用户数量已突破百万。上线不到40天,日活用户已突破千万。2023年3月15日凌晨,发布目前最强的GPT系列模型——GPT-4,提供大规模的多模态模型,可以接受图像和文本输入,产生文本输出,在业内产生颠覆性的影响。2023年3月17日,微软举办了 365 发布会,正式把的GPT-4 模型装进了套件,推出了全新的AI功能。它不仅会做PPT,写文案,还会做分析,生成视频。此外,国内各个大厂也宣布陆续推出类的产品。2月8日,阿里巴巴专家爆料,达摩院正在研发类对话机器人,已开放给公司内员工测试。可能将AI大模型技术与钉钉生产力工具深度结合。2月8日,京东集团副总裁何晓冬坦言:京东在领域拥有丰富的场景和高质量的数据。2月9日,腾讯相关人士称:腾讯目前也有相似产品和AI生成内容的计划,专项研究也在有序推进。网易表示,教育业务将整合AI生成的内容,包括但不限于AI口语老师、作文打分和评价等。3月16日,百度百度正式发布大语言模型、生成式AI产品“文心一言”,发布两天,已有12家企业完成首批签约合作,申请百度智能云文心一言API调用服务测试的企业达9万。

目前,大模型已经逐渐渗透我们的生活。未来,各行各业都有可能出现翻天覆地的变化。以为例,包括以下几个方面:

生成式模型介绍

1、主流的大语言模型:LaMDA

由公司发布。LaMDA模型基于框架,拥有1370亿模型参数,具备文本中长距离依赖的建模能力。该模型是通过对话来训练的。主要包括预训练和微调两个过程:在预训练阶段,他们使用了多达1.56T的公共对话数据集和网页文本,以语言模型(LM)作为训练的目标函数,即目标是预测下一个字符(token)。在微调阶段,他们设计来多个任务,例如给回复进行属性打分(敏感度、安全性等等),使语言模型对其人类的偏好。下图展示了其中一类的微调任务。

LaMDA模型预训练阶段

LaMDA模型微调阶段任务之一

LaMDA模型专注于对话生成任务,但常犯事实性的错误。谷歌今年发布了Bard(一项试验性的对话式AI服务)便是由LaMDA模型来提供支持。然而Bard在发布会上,Bard犯下事实性错误,这令谷歌周三股价大跌,盘中跌超8%,刷新日低至约98美元,市值蒸发1100亿美元,让人唏嘘。

2、主流的大语言模型:

模型基于GPT架构,主要由有监督的微调( Fune-, SFT)和人类反馈的强化学习( Human Fune-, RLHF)训练得到。以为技术支持的对话产品——专注于生成语言文本,也可以生成代码和进行简单数学运算。具体的技术细节已经在上两期进行过详细探讨,读者可前往阅读,此处不再赘述。

模型训练流程图

3、主流的大语言模型:

模型训练流程图

是公司的对话型产品。与一样,都是基于GPT框架,是单向的语言模型。然而,不同于,它主要由有监督的微调和AI反馈的强化学习训练得到。在有监督的微调阶段,它先制定了一系列规则(),例如不能生成有害信息,不能生成种族偏见等等,然后根据这些规则获得有监督数据。随后,让AI来判断分辨回复的优劣,自动训练用于强化学习的数据集。

相比于而言, 能更清晰地拒绝不恰当请求,句子之间衔接的也更自然。当遇到超出能力范围的问题时, 会主动坦白。目前,当前还处于内测阶段。不过根据 Scale 团队成员内部测试结果显示,相比 ,在测试的12 项任务中有 8 项更强。

大语言模型的能力

我们统计了国内外的大语言模型以及模型能力、开源情况等。

国内流行的大语言模型

国外流行的大语言模型

可以看出,大语言模型表现的能力多种多样,包括但不限于少样本学习、零样本迁移等等。那么有个很自然但问题产生了,这些能力都是怎么样产生的呢?大语言模型的能力究竟来自于哪里?接下来,我们试图解答上述的疑惑。

下图展示了一些成熟大语言模型和进化过程。归纳出来,大多数模型会经历三个阶段:预训练,指令微调和对齐。代表模型有的和的。

流行大语言模型的进化图

文本对象模型_文本语言模型chatgpt_文本模型训练

那么,在这每一步的背后,模型究竟可以获得什么样的能力呢?爱丁堡大学的符尧博士总结了他认为的步骤和能力的对应关系,给我们一些启发。

1. 预训练阶段,该阶段的目标是获得一个强大的基础模型。相应地,在此阶段模型展现出来的能力有:语言生成,上下文学习能力,具备世界的知识,推理能力等等。此阶段的代表性模型有GPT-3,PaLM等。

2. 指令微调阶段。该阶段的目标是解锁一些涌现能力( )。这里的涌现能力是特指小模型没有,大模型才有的能力。经历过指令微调后的模型,出现了基础模型所没有的能力。例如,通过构造新的指令,模型能够解决新任务;再比如,思维链的能力,即通过展示给模型推理过程,模型也能仿照进行正确推理等,代表模型有,Flan等。

对齐阶段。该阶段的目标是使模型具备人类的价值观,比如要产生有信息量的回复,不能产生歧视类的发言等等。可以认为,对齐阶段赋予了模型们“个性化”。这类的代表模型有。

大语言模型三阶段。图片来自《符尧:论大语言模型能力的来源》

总地来说,上述三个阶段相辅相成,缺一不可。只有预训练阶段得到了一个足够强大的基础模型,才有可能通过指令微调激发(或者增强)语言模型的其他能力。对齐阶段赋予模型一定“性格”,更好地符合人类社会的一些要求。

生成式模型鉴别

大语言模型技术在带来便利的同时,也包含着风险和挑战。在技术层面,GPT生成的内容不能保证真实性,如会产生有害言论等。在使用层面,用户可能在教育、科研等领域滥用 AI产生的文本。目前,多家公司和机构开始对的使用施加限制。微软和亚马逊因担心泄露机密信息,禁止公司员工向分享敏感数据;香港大学禁止在港大所有课堂、作业和评估中使用或其他人工智能工具。我们主要介绍工业界的相关工作。

:是最早出现的文本生成鉴别工具。它是由 Tian(美国普林斯顿CS专业本科生)发布的在线网站()。它的原理靠文本困惑度(,PPL)作为指标来判断所给内容到底是谁写的。其中,困惑度用以评价语言模型的好坏指标,本质上是计算句子出现的概率。

网站界面

(这里我们使用产生一段新闻报道,让判断是否是生成的文本。)

GPT2 :该工具由发布。它利用“GPT2-生成内容”和数据集,在上进行微调,学习一个检测分类器。即“用魔法打败魔法”。官网也提示说,只有当文本超过50个字符(token)时,预测结果才更加可信。

GPT2 网站界面

AI Text : 该工具由发布。原理是收集在同一个话题下人类写作文本和AI写作文本。将每一个文本都划分成提示和回复对,让GPT微调后产生答案(例如,让GPT产生Yes/No)的概率作为结果阈值。该工具的划分非常细致,结果包括5类:非常不可能是AI生成的(阈值0.98)。

AI Text 网站界面

总结&展望

大语言模型拥有小模型没有的涌现能力,例如优秀的零样本学习、领域迁移、思维链能力。大模型的能力实际上来自于预训练、指令微调和对齐,这三个过程密切相关,成就了现在超强的大语言模型。

大语言模型(GPT系列)目前还不具备置信更新、形式推理、互联网检索等能力,有专家认为,如果可以将知识卸载到模型之外,参数量会大大减少,大语言模型才能真正的更进一步。

只有在合理的监管和治理之下,人工智能技术才能更好地为人服务。国内发展大模型任重而道远!

参考文献

[1]

[2]

[3] LaMDA: for , Arxiv 2022.10

[4] AI: from AI ,Arxiv 2022.12

[5] #

[6] 国联证劵:《 风口已至,商业化落地加速》

[7] 国泰君安证券:《研究框架2023》

[8] 符尧:预训练、指令微调、对齐、专业化:论大语言模型能力的来源

[9] 万字长文解析!复现和使用GPT-3/,你所应该知道的

中国保密协会

科学技术分会