刚打开对话框,我想让它帮我改个周报,结果它给我整了一堆“赋能”、“闭环”、“底层逻辑”的废话。那一刻,我真想顺着网线过去给它两拳。这哪是AI,这简直是职场PUA大师。很多人都在喊ChatGPT变傻了,我也觉得它最近有点飘。以前那个犀利、精准、说人话的助手不见了,取而代之的是一个只会打官腔的客服机器人。
但这事儿真怪AI吗?我觉得未必。是我们太懒了。
我做了十年大模型,见过太多人把Prompt当许愿池。你扔进去一句“帮我写个方案”,它当然只能给你一堆正确的废话。因为没约束,它只能靠概率猜你最想要什么。而现在的模型,为了安全、为了合规,为了不得罪人,确实变得更“圆滑”了。这种圆滑,在用户眼里就是傻。
别急着卸载,我有办法让它重新变聪明。
第一步,把“指令”变成“剧本”。
别再说“写篇文章”,要说“你是一位有10年经验的资深编辑,读者是30岁的互联网从业者,请写一篇关于XX的文章,语气要犀利,不要鸡汤,字数500字”。你看,加上角色、受众、语气、字数限制。这时候,它就不敢随便糊弄你了。我上周让一个模型写代码,没加限制,它给我写了个能跑但全是注释的垃圾代码。加了“请只输出代码,不要解释,使用Python 3.10语法”后,它立马乖得像只猫。
第二步,给它“喂”点真东西。
别让它凭空想象。你让它分析数据,直接把数据贴进去。你让它总结新闻,把链接或者文本扔进去。模型不是神,它不懂你心里的上下文。我有个客户,以前总抱怨ChatGPT变傻了,连简单的逻辑题都答错。后来我让他把之前的对话记录、公司内部的SOP(标准作业程序)都整理成文档,喂给模型。结果呢?模型瞬间变成了他公司的“活字典”,回答问题精准得吓人。这就是上下文的力量。
第三步,学会“追问”和“拆解”。
别指望一次成型。第一次回答不满意?别骂街,接着问。告诉它哪里不好,让它改。比如,“这段太啰嗦,删掉一半”、“这个观点太浅,再深入一点”。我试过,同一个问题,追问三次,质量能提升三倍。这就跟跟真人聊天一样,你越具体,对方越明白。
当然,我也得说句公道话。现在的模型,在创意发散、情感共鸣上,其实比之前强多了。它变得更“懂”人了,只是有时候懂过头了,变得小心翼翼。这种“傻”,其实是种保护机制。
我们得适应这种变化。别再把AI当搜索引擎用,也别把它当保姆。把它当个实习生,你得教它怎么干活,给它标准,给它反馈。你越专业,它越专业。
我见过太多人,遇到ChatGPT变傻了这种问题,第一反应是抱怨,然后放弃。其实,换个思路,换个问法,你会发现,那个犀利的AI一直都在,只是被你藏起来了。
别总盯着它的缺点,多看看它的能力边界。在这个时代,会提问的人,永远比只会搜索的人更有价值。
所以,下次再觉得它傻的时候,先别急着关机。想想是不是自己没给够提示。毕竟,镜子照出的,往往是你自己的样子。
记住,工具没有好坏,只有用法对错。与其抱怨AI变傻,不如提升自己的Prompt工程能力。这才是正解。