2.1 优化特定问题准确度:排除不需要的内容
GPT-4 等语言模型在训练时,数据集主要包含正面内容,即肯定句子多于否定句子。这是因为日常生活和大部分文本中,我们通常表达肯定观点和信息。因此,模型更善于理解和生成正向内容。
另外,模型训练过程中的人工微调和标签通常以正向为主,这也加强了模型对正面内容的倾向。尽管如今开发者在模型训练中已有意识地控制正负样本的比例,但在最终生成内容上还是难免受到一定程度的影响。
这里说句题外话,在人工智能出现后,样本导致的模型偏见成为了一个严重问题。例如,谷歌的图像识别模型曾将黑猩猩与黑人混淆(真实的地狱笑话),结果不出所料地引来抨击,使其模型受到冷遇。有兴趣的朋友可以搜索「人工智能歧视」或「bias in machine learning」以了解更多相关信息。
正向表述与否定表述
首先,我们来看看什么是正向表述和否定表述。如果我们想要模型生成一个人物资料,但我们不希望模型生成该人物喜欢的颜色或他的工作经历,我们通常可能会这样询问:
你现在是……请生成一个人物资料……**不要**生成他喜欢的颜色或工作经历这是一个典型的否定表述,我们直接明确了我们不希望得到的内容。然而,由于模型对正向内容的偏向,这样的表述可能会影响生成结果的质量。
相反,如果我们改变表述方式,变成:
你现在是……请生成一个人物资料……**排除**生成他喜欢的颜色或工作经历这是一个正向表述,我们告诉模型我们希望得到的是一份排除了特定信息的人物资料,而不是简单地告诉它我们不要什么。这样的表述方式更能够引导模型生成我们想要的内容。
可以看到,即使你使用了否定表述告诉 GPT 不要生成工作经历,生成的内容中仍会有涉及使用更加正向的表述,它生成的内容就会更加遵守你想要排除的内容要求。
为什么正向表述更有效
我们可以将正向表述视为一种更积极、更具建设性的表述方式。当我们使用正向表述,我们更多地关注我们想要得到的东西,而非我们不希望得到的东西。这样可以更好地引导模型关注我们的需求,从而生成更精确的内容。
另外,通过将否定的语气,如「不要」「不可以」,转换为比较「正向」的语气,如「排除」「过滤」等,可以提升这类问题生成的内容准确度。这是因为这样的语气转换可以更清楚地表达我们的需求,让模型更好地理解我们的意图。
运用正向表述的方法并不复杂。我们只需要把我们的需求用肯定的语气表述出来,就像我们在日常生活中一样。例如,我们可以说「我希望你可以……」,而非「我不希望你……」;我们可以说「请排除……」,而非「不要包括……」。这种表述方式可以使我们的需求更清晰,更易于理解,从而使模型生成的内容更准确,更符合我们的需求。
正向表述的优势
正向表述的优势主要体现在以下几点:
提高生成内容的准确性:由于模型对正向内容的偏向,正向表述可以使模型更准确地理解我们的需求,从而生成更准确的内容。
提高生成内容的相关度:正向表述可以使我们的需求更清晰,更具体,使模型更容易关联到相关的内容,从而生成更相关的内容。
更易于理解:正向表述通常更直接,更具体,更易于理解。这对于我们自己,也对于模型来说都是如此。
正向表述适合于任何需要提高生成内容准确性和相关度的情况。无论是生成文章,对话,还是生成其他类型的文本,只要我们希望模型更准确地理解我们的需求,更精确地生成我们想要的内容,我们就可以运用正向表述。
总结
比起前面教的方法比较具体,本章我给大家提供了优化方法,更偏向一种思路和概念,「是道非术」。尽管正向表述的优化效果可能并不显著,但它确实可以在一定程度上提升模型生成内容的准确度和相关度。而且除了跟模型对话时,能够提升生产内容的质量,在现实世界中我们也可以用这种方法,来让自己在他人眼中更加地「正向」。
总的来说,通过运用这样简单的技巧,或者叠加使用更多简单的技巧,我们依然做到很好的优化效果。在下一章我会教大家另一个很常见的问题类型,那就是让 GPT 如何准确在内容中提取我们想要的信息。
最后更新于