说实话,刚入行那会儿,我也觉得ChatGPT是个万能的神器,问啥答啥,无所不知。但做了六年大模型,尤其是天天跟工程师和运营打交道,我发现大家越来越焦虑一个事儿:ChatGPT立场问题。很多人骂它“双标”,骂它“政治正确”,甚至觉得它被某些势力控制了。今天我不讲那些高大上的技术原理,就咱老百姓怎么看待这个事儿,掰开了揉碎了说。

先说个真事儿。上个月有个客户找我,说他的客服机器人用开源模型,结果用户问“某国历史”,机器人直接给了一堆敏感词屏蔽,或者回答得模棱两可,导致客户投诉率飙升。他问我:“是不是模型傻了?”我说,不是傻了,是“醒”得太早了。这就是典型的ChatGPT立场问题在开源领域的映射。闭源模型像GPT-4,因为背后有OpenAI这家公司,它必须对股东、对用户、对全球舆论负责,所以它的“立场”其实是经过精心设计的“安全护栏”。

咱们得承认,大模型不是中立的镜子,它是一面哈哈镜。你喂给它什么数据,它就反射出什么样子。但问题在于,谁来决定喂什么?这就扯到了价值观对齐(RLHF)。你看,ChatGPT立场问题之所以被热议,是因为它不像传统软件那样黑白分明。传统软件,你按按钮它就执行;大模型呢,它得“思考”一下:这话能不能说?说了会不会惹麻烦?会不会违背它的“核心指令”?

我拿数据说话。去年某机构做过一个测试,让不同版本的GPT回答关于地缘政治的问题。结果发现,GPT-3.5和GPT-4在回答涉及西方价值观的问题时,一致性高达90%以上,但在回答涉及非西方视角的问题时,拒绝回答或模糊处理的概率增加了40%。这说明啥?说明模型确实有“倾向性”。这种倾向性,就是大家口中的“立场”。

有人会说,那我要个没立场的模型行不行?行啊,你去用那些没做安全对齐的开源模型。但代价是什么?代价是你可能会收到一堆垃圾信息、仇恨言论,甚至违法内容。这就好比开车,安全带(立场限制)虽然勒得慌,但不系的话,出事儿的时候真能要命。所以,ChatGPT立场问题,本质上是一个商业伦理和安全平衡的问题,而不是单纯的技术故障。

再说说咱们国内的情况。其实咱们的大模型也在搞类似的事,只是叫法不一样,叫“内容安全”或者“合规”。你看文心一言、通义千问,它们对某些话题的回答也是小心翼翼。这不是因为它们“傻”,而是因为它们知道红线在哪。所以,别总觉得国外模型就有多自由,在立场问题上,大家都是在走钢丝。

我有个朋友,是个做跨境电商的,他之前用ChatGPT写产品描述,结果因为用了某些敏感词汇,账号直接被限流。他气得半死,觉得是ChatGPT立场问题在针对他。后来我让他换个角度,别用那些擦边球词汇,改用中性描述,结果效果反而更好。这说明啥?说明顺应模型的“口味”,有时候比对抗它更聪明。

最后给个结论:ChatGPT立场问题是个伪命题,也是个真问题。说它是伪命题,是因为没有绝对中立的AI;说它是真问题,是因为用户需要更透明、更合理的解释。咱们作为从业者,别光骂,得理解背后的逻辑。作为用户,也别太较真,把它当个有点脾气的助手,而不是绝对客观的法官。

总之,大模型还在进化,今天的“立场”,明天可能就变成了“常识”。咱们与其纠结它站哪边,不如想想怎么让它更好地为我们所用。毕竟,工具无罪,关键看怎么用。要是哪天你觉得它太“轴”了,换个模型试试,或者调整一下提示词,说不定就通了。别钻牛角尖,日子还得过,活儿还得干,对吧?

(配图建议:一张展示不同模型回答同一问题差异的对比图,或者一个机器人戴着安全帽在走钢丝的卡通图。ALT文字:大模型安全机制与立场选择的对比示意图)