标题:别装了,ai大模型有立场,这锅我不背

关键词:ai大模型有立场

内容:

刚才凌晨三点,我盯着屏幕上的报错日志,烟灰缸里堆满了烟头。手有点抖,不是累的,是气的。

真的,受够了那些天天喊着“AI中立”、“AI客观”的鬼话。咱们干这行九年了,从最早的NLP到现在的Transformer,什么大风大浪没见过?但最近这半年,我算是彻底悟了:ai大模型有立场,而且立场鲜明得很。

上周有个客户,某大厂的产品经理,非要让我调优他们的客服模型。需求很奇葩,问一些关于行业潜规则、灰色地带的问题。我说这模型得合规,不能乱说。他瞪着眼说:“你要让它中立!要客观!不要带偏见!”

我当时就想笑。中立?客观?

你想想,训练数据从哪来?互联网上那些文章、评论、论坛帖子,哪一个是绝对中立的?那是人类写的,人类就有偏见,有情绪,有立场。模型学的是人类的语言,它怎么可能跳出人类的圈子,变成一个没有感情的上帝视角?

我记得去年做医疗辅助诊断的项目,有个医生问我:“为什么模型对某些罕见病的推荐率偏低?”我查了半天数据,发现是因为训练集里这类病例太少,而且相关的讨论在主流医学论坛里本身就存在争议。模型捕捉到的不是真理,而是“主流观点”或者“多数人的声音”。这就是立场。

很多人觉得AI是冰冷的代码,代码没有感情。错!代码背后是数据,数据背后是人。当我们在清洗数据的时候,当我们设定Prompt的时候,当我们调整温度参数的时候,我们其实是在给模型注入价值观。

就说现在大火的生成式AI,你让它写个新闻稿,它选用的词汇、强调的角度,往往都带着训练数据里最频繁出现的那套逻辑。这套逻辑,往往就是既得利益者或者主流媒体的立场。

我有个朋友,做内容创作的,他用AI写文章,发现怎么改都改不出那种“犀利”的感觉。后来他换了几个不同的模型,发现有的模型说话温吞水,有的则言辞激烈。这不是模型本身的问题,是它们背后的训练数据分布不同,是它们被“喂”下去的东西不同。

所以,别再问“AI有没有立场”这种愚蠢的问题了。ai大模型有立场,而且这个立场是复杂的、多层次的。

我们从业者要做的,不是假装看不见,而是去理解它、驾驭它。你要知道这个模型在什么场景下会表现出什么样的倾向,你要知道它的“偏见”从哪来。

比如,如果你在做法律相关的应用,你得警惕模型对某些法条的解释是否偏向于某种司法实践的主流观点;如果你在做心理咨询,你得小心模型是否会无意中强化某些刻板印象。

我最近就在做一个项目,专门给模型做“去偏见”处理。听起来很酷对吧?其实就是通过增加特定领域的优质数据,通过RLHF(人类反馈强化学习)来引导模型。但这过程痛苦得要命,因为你要不断和模型的“本能”做斗争。

有时候我觉得,AI就像个刚毕业的大学生,聪明,但阅历浅,容易听信流言蜚语。你得教它,得纠偏,得让它看到更广阔的世界。

别指望AI能替你思考,它只是把你思考过的东西,用一种更高效的方式反射回来。如果你希望得到更客观的结果,你得先确保你输入的数据和思考框架是多元的、包容的。

最后说句实在话,技术是中立的,但使用技术的人不是,训练技术的人也不是。承认ai大模型有立场,不是悲观,而是清醒。只有清醒了,我们才能更好地利用它,而不是被它忽悠。

今晚还得接着改Prompt,希望能调出个稍微“清醒”点的模型来。累并快乐着吧,这就是我们的日常。