91书院(91shuyuan.com)更新快,无弹窗!
在前世openAI得到Gpt3之后,为了发展出chatGpt级别的智能,他们曾经做过两种不同路线的尝试。</P>
openAI将一批模型命名为达芬奇,分为代码版达芬奇和文本版达芬奇两种,顾名思义,一种用于代码,一种用于文本语言。</P>
这两兄弟可以算作是第一版的Gpt3.5,也就是chatGpt的原始版。</P>
对比原本有点笨笨的Gpt3,两兄弟已经开始展现出不少关键能力。</P>
比如合理的响应人类的指令。</P>
他们针对人类的输入内容,回应会显得非常合理,给人感觉像是在进行对话和思索。而此前的Gpt3,会经常复读相关,但是根本没用也不是回答的句子。</P>
比如可以对从未见过的任务和知识内容进行应对,这一点是至关重要的。</P>
如果模型只能对训练集内有的文本进行理解和回答,那么上线以后是完全没法用的。</P>
广大民众的想象力是无限的,分分钟就会发现智能的漏洞所在,进而对这款智能失去兴趣,这也是为什么Gpt3在人工智能领域外几乎没有什么水花。</P>
最重要的一点,是模型具备了【思维链】,能够对比较长的句子和事件的因果关系进行相当复杂的推理。</P>
这一点也是Gpt3几乎不具备的。</P>
思维链的能力至关重要,它不仅使得模型能够更加聪明的理解人类用户的输入,更加关键的地方在于强化了多轮对话的前后文理解能力。</P>
它使得语言模型仿佛具有了相当的记忆力,用户每次输入内容和进行对话的时候,几乎不需要过多的提及之前的内容,模型就仍旧能够串起前文,理解用户的意图。</P>
这些新的能力,是使得Gpt3.5完全蜕变,成为全世界目光焦点的关键所在。</P>
而与Gpt3相比,模型的参数和训练的数据变化其实很小。</P>
所以孟繁岐才会认为,数据和模型规模固然重要,但还不够产出chatGpt这样聪慧的智能。</P>
在此基础之上,还需要另做文章,并且工程量不小。</P>
这些操作和技巧,就是openAI最成功产品,chatGpt的核心科技。</P>
“首先要做的两件事是【指令微调】和【代码训练】。”孟繁岐如今手下已经有了好几十人,既然付工资,该让他们做的事情当然不用客气。</P>
指令微调到底是否改变了模型的性能,这个问题其实并不好说。</P>
不过前世有很多研究证明,指令微调的确可以使得模型的输出更加符合人类的风格,符合人类的偏好。</P>
或许,微调前的模型其实已经理解了内容,掌握了对应知识,但它表达的方式和风格并不是人类的风格,又或者说,它不知道应该如何表达。</P>
这也就导致了人类对它们的回应评价不高。</P>
“大家不要小看指令微调,如果说随机参数生成的大模型就像是人类婴儿,经过首轮训练的Gpt就像是刚刚完成九年义务教育的中学生。他们有基础的知识和写作能力,但如果想让他们在特定任务上独当一面,还需要进行专门的实习锻炼。”</P>
“指令微调就像是一种引导,让大模型在少量的训练调整中,大概理解什么样的问题需要检索什么样的知识,如何回答才是更好的方式。”</P>
“这种模式,我们之前在做AI医生的时候,已经有过非常详尽的流程和模版了,不熟悉的同事可以先去学习一下。”孟繁岐知晓这件事的重要性,因而从两年前开始收集数据的时候,早就规定了收集数据需要的格式。</P>
一步到位,为后面省了不少事情。</P>
上一次AI医生,之所以能用数亿的参数量做到那么好的效果,指令微调策略是贡献很大的。</P>
他使得AI模型能够显得非常自信专业,很像是具备特定领域专业知识的老医生。</P>
并且时刻知道自己的身份,会提醒患者去医院确认情况,不会过于自信。</P>
“这一次的主要挑战在于我们要打造一个通用的语言大模型智能,因此多个方面和领域都需要微调,任务种类可