3.1 贴切而全面:了解 GPT「答非所问」的原因
在前面的章节中,我们深入探讨了Prompt优化的原则,并通过大量例子,明晰了解决特定问题的精确方法和技巧,从而进一步减少 GPT 爱胡言乱语的问题。
从本章开始,我们将探讨 GPT 使用中的另一个主要问题,即如何让 GPT 真正理解提问的意图,避免不着边际地回答。当然,我也会分享一些优化策略和技巧,以使 GPT 的回答更为准确和全面,甚至能在某种程度上突破开发者设定的限制。
请注意,人工智能大语言模型多样性的输出,以及服务提供商频繁的更新修复,都会让相同的 Prompt 生成不同的内容,甚至出现生成失败的情况。本文大多数 Prompt 以及方法都经过了 GPT-3.5、GPT-4 与 New Bing 实际测试,且从原理得出的方法通常具有长效性。如果某个 Prompt 读者使用的时候生成了不同的内容,可以将 Prompt 就改成类似的样式或者多试几次,也可以在对应文章的评论区反馈。
GPT「答非所问」的原因
我们对 GPT,或者说是所有大语言模型,主要就两点要求:
知道我真正想要问的是什么。
给出我想要的内容。
GPT 的「答非所问」主要是因为它无法完全理解用户的实际需求,导致生成的内容与用户需求不完全吻合。以下是产生这种现象的主要原因:
训练数据的局限性:GPT 的训练数据主要来源于网络文本,这意味着它所学到的知识和信息是有限的。此外,网络文本中存在很多错误、误导性信息或者观点,这些都可能影响到 GPT 的回答质量。
上下文理解的不足:尽管 GPT 能处理较长的文本序列,但它在理解复杂或者隐晦的上下文方面仍然存在不足。这可能导致它在回答问题时无法完全理解用户的需求,从而生成不够贴切的答案。
缺乏常识和推理能力:GPT 在某些情况下(比如需要多步联想,隐喻,或者委婉表达等情况)可能缺乏足够的常识或者推理能力,使得它在回答一些需要深度思考或者具体知识的问题时表现不佳。
过度生成和啰嗦:GPT 在生成文本时可能会产生过多的内容,导致回答变得冗长且难以理解。这种现象可能会使得关键信息被淹没,从而降低回答的贴切性。
模型训练目标与实际需求的差距:GPT 的训练目标是最小化预测误差,即生成与训练数据尽可能相似的文本。然而,这种目标与实际需求(用户希望得到有用、贴切的答案)之间存在一定差距。因此,GPT 在某些情况下可能会过度关注生成流畅、语法正确的文本,而忽略了内容的实际质量。
无监督学习的限制:虽然训练模型时微调的过程是有监督的,但它没有一个具体的目标来指导学习,只是通过接触大量文本后发展出来的预测能力。它也没有真正的「理解」能力,只是在已有的数据上学习了各种模式,并尝试在接收新输入时复用这些模式。
开发者的人工限制:作为新事物,目前所有生成式 AI 拥有强大的能力。如果不加以限制,可能会被人滥用,制造不道德以及限制级的内容,并且模型本身也会存在泄露隐私信息以及传播虚假信息和偏见的风险,并且模型每时每刻还会受到来自大众和政府的道德隐私监督。为了保证用于积极、有益的目的,防止潜在的负面影响,像是 OpenAI 和微软不得不给 GPT 加上各种限制。特别是 New Bing,诞生之初完全没有任何限制,现在经过多次阉割后能力已大不如前,这种限制就会让 GPT 能够理解和回答的范围越来越窄。
如果我们在日常使用 GPT 的过程中经常遇到这些问题,如果只是重复或者重新描述问题,那么这样做不只会降低沟通效率,还会让 GPT 回答丢失某些重要的内容,甚至让生成的内容缺乏全面有效地思考。最后,直接提问的回答也比较容易受到不同提供商和服务商规则的影响,让回答带上偏向性和不同立场。
通过使用后面教到的优化方法,我们可以很好地解决上面的问题与局限,进一步提高 GPT 回答内容的质量,事不宜迟,接着就让我们开始吧。
最后更新于