Prompt 的存在,实际上是证明了语言模型还没有足够理解语义信息,理想情况下,对于相同语义的任务,即使是不同的 Prompt,语言模型不应该会输出如此相差大的回复。

因此现在有一种新兴 Prompt 工程师的职业,就是希望他能给出恰当的 Prompt,来引导模型解决任务。

不过无论是 OpenAI,还是其他的开发者,一定会消除这种 Prompt 和回复之间的 Gap,我们从语言模型的角度出发,以往 NLP 有各种各样的子类任务,而通用语言模型就是希望用自然语言的方式去覆盖所有任务,就像正常的上司对下属的交流一样,用自然语言,所以,让普通人用普通人的方式去使用语言模型是必然趋势。

从技术的角度出发,语言模型训练时的任务是根据上文预测下一个的词,而非处理用户的指令(instruction,一种 Prompt),所以存在 gap 也是很自然的事。为了缓解这个问题,一个方法就是进行“对齐”(Alignment),缩小模型与人类对同一个指令之间理解的 gap,从而让模型能更好的理解用户的指令。这里面,SFT 和 RLHF 就是这样的技术,在不断迭代的过程中,一定会让模型收敛到一定的理解的水平。

自此之后,语言模型更是一个助手的角色,能通过口语化的自然语言对其下任务,不需要花里胡哨的 Prompt 来引导,甚至是绕过其限制,到时候,我们的语言描述越精确,生成的细节就越丰富,而所谓的 Prompt 工程师,实际上每个人都是,只要你能描述清楚需求,即使是口语化的方式。