Featured image of post 对LLM客气,纯属自找麻烦

对LLM客气,纯属自找麻烦

实验结果:越客气,LLM越糊涂最近有篇论文做了个实验,结论让人哭笑不得:你对ChatGPT越客气,它答题越不准

实验结果:越客气,LLM越糊涂

最近有篇论文做了个实验,结论让人哭笑不得:你对ChatGPT越客气,它答题越不准。

研究者出了50道多选题,用五种语气问ChatGPT-4o——从“请您帮忙解答一下”到“快给我答案”。结果如下:

语气正确率
非常礼貌80.8%
礼貌81.4%
中性82.2%
粗鲁82.8%
非常粗鲁84.8%

越不客气,越准确。 这不是段子,而是统计检验后的真实结果。

换句话说——LLM(语言大模型)不吃“客气”那一套。

为什么客气反而坏事?

别以为LLM真懂“礼貌”。 它不过是一台概率机器,所有输入的字,对它而言只是数据。

“请”“麻烦您”“谢谢”这些词,对人来说表示尊重,对LLM来说只是 冗余的噪音 。它无法感受到情绪,却要在冗余语言中找出你真正的问题。结果是—— 它被你的客气话搞糊涂了。

还有一个原因是: 上下文窗口的效率。 在有限的上下文窗口(Context Window)中,你的客气话占据了 宝贵的Token数量 。每一个Token都应该用于传递关键的指令信息,而不是用于寒暄。ChatGPT这类模型的训练数据中,大量来自论坛、技术问答等。模型在这些语境下习惯处理简洁、命令式句子,而不是文绉绉的礼貌表达。换句话说,它对“直白的命令”更熟悉,对“客气的请求”反而陌生。

当你绕弯子时,它反而要花更多算力去猜你的真实意图。 结果就像说话绕圈子,让对方瞎猜,准确率自然下降了。

别把LLM当人看(警惕“粗鲁”的边界)

很多人用LLM时,总喜欢装出一副“礼貌至上”的样子:

“请帮我详细而准确地回答以下问题,麻烦您了,谢谢~”

这对人说没问题,对LLM说完全没意义。 它不会因为你客气就更用心,也不会因为你粗鲁就罢工。

LLM没有自尊,也没有同理心。你所有的客气,只是浪费token。

【重要提醒】 实验中的“非常粗鲁”指的是 指令的绝对直白和省略客套 。我们不鼓励使用侮辱或攻击性词汇。真正的侮辱性内容会触发LLM的 安全过滤机制(GuardrLLMls) ,反而会导致拒绝回答或输出质量下降。

对LLM发指令,追求清晰度

这项研究其实提醒我们一个朴素的道理: 和LLM打交道,关键不是态度,而是表达的清晰度。

好的提示词要像指令,不像寒暄。越简洁,越容易让LLM锁定任务。

低效寒暄式高效指令式
请问您能帮我解一下这个复杂的方程吗?解方程,输出步骤。
请帮我总结一下《红楼梦》的主要人物,要详细哦。指令:提炼《红楼梦》前80回五位核心人物,格式:姓名/关系/主要性格特征。

人与人的沟通追求“情商”,人与LLM的交互追求“指令清晰度”。 这是人机协作的准则,无关态度,只关效率。

别被LLM的“懂礼貌”假象骗了

很多人说:“ChatGPT挺懂人情世故啊,还会说谢谢。” 这是错觉。

LLM的礼貌,是模仿出来的。 它从无数人类对话中学到“客气话的模式”, 却从未理解“礼貌的意义”。

它只是鹦鹉学舌,说“请”“谢谢”只是语言表演,不是情感反应。如果你以为那是“温度”,那不过是 统计学拟合出的幻觉。

真正的礼貌,是对人

对LLM客气,不仅没用,还可能降低效率。 它不会感激,也不会回礼。

真正该讲礼貌的对象,是人——而不是算法。 对机器,只要清晰、准确、高效就够了。

下次和LLM交互时,不妨试试直接说出需求。 别说“麻烦帮我”,直接说“生成报告,800字,总结重点”。

这不是没礼貌,而是理性。 因为LLM不需要礼貌,它只需要清晰。

结语

LLM越进步,人越容易把它“人化”。 但别忘了,它不是思想者,只是概率引擎。

我们要做的,不是讨好它,而是让它听懂。 把话说清楚,比说得好听更重要。

论文链接:

《Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy》

使用 Hugo 构建
主题 StackJimmy 设计