做这行快十年了,见过太多人把大模型当神供着,也见过太多人因为几次报错就想把电脑砸了。前两天有个刚入行的小兄弟问我,说想用ChatGPT画图故事,结果生成的图片要么像鬼片,要么就是手指头多得像章鱼,心态崩了。我听完乐了,这哪是技术不行,纯粹是心太急,还没学会走就想跑。

咱们说实话,现在的AI绘图工具,不管是Midjourney还是DALL-E,它们都不是画家,而是个超级勤奋但有点死脑筋的实习生。你给它指令,它给你干活。你想让它画出那种“赛博朋克风格的小猫在雨中吃面”,它真能给你整出来,但细节全靠猜。我之前带过一个项目,给一个绘本作者做辅助,刚开始他也跟我一样,指望AI一次性出成品。结果呢?第一版出来的图,猫的眼睛一只大一只小,面条飘在空中像天线。作者气得差点辞职。

后来我们换了个思路,不再追求“一键生成”,而是把ChatGPT画图故事拆解成几个具体的步骤。第一步,别急着让AI画图,先让ChatGPT写分镜脚本。你告诉它:“我要讲一个关于孤独机器人的故事,分5个场景,请详细描述每个场景的光线、色调和主角动作。”这时候,ChatGPT会给你一段非常详细的文字描述。注意,这段文字才是关键,它比你直接扔一句“画个机器人”要有用得多。

第二步,拿着这些详细的描述去生成图片。这里有个坑,很多人直接用英文提示词,其实现在国内很多平台都支持中文,但为了效果稳定,建议还是用英文或者中英混合。比如描述那个吃面的猫,你不能只说“猫吃面”,你得说“一只橘猫,坐在霓虹灯下的巷子里,面前有一碗热气腾腾的面,雨滴落在碗里溅起水花,电影质感,8k分辨率”。你看,细节越足,AI越不容易抽风。

第三步,也是最容易被人忽略的,就是后期微调。AI生成的图,往往在光影和构图上有点小瑕疵。这时候别慌,用修图软件稍微调整一下,或者让AI基于这张图再画一张类似的,也就是“图生图”。我那个绘本作者,就是用了这个方法,把AI生成的底图拿回去,手动调整了猫的表情,再让AI重新渲染背景,最后出来的效果,连他自己都惊讶。

其实,ChatGPT画图故事的核心,不在于“画”,而在于“事”。你得先有个好故事,有情感,有冲突,有温度。AI只是个工具,它不懂什么是悲伤,什么是喜悦,它只知道像素怎么排列好看。所以,别指望AI能替你思考,你得做那个掌舵的人。

我也见过不少同行,为了炫技,搞些花里胡哨的提示词,结果出来的东西空洞无物。真正的高手,都是把功夫下在故事内核上。比如你想画一个“离别”的故事,与其纠结背景是海边还是车站,不如先想清楚,离别时那个人手里拿着什么?是未送出的信,还是断掉的项链?把这些细节喂给AI,它才能画出那种让人心里一紧的感觉。

这行干久了,你会发现,技术迭代太快,今天的神器明天可能就过时了。但人性里的共鸣,那些关于爱、失去、希望的故事,永远不会变。所以,别总盯着工具看,多看看生活,多听听别人的故事。当你心里有货了,手里的AI自然就能画出你想要的样子。

最后想说,别被那些“三天精通AI绘图”的广告忽悠了。这事儿急不来,就像煲汤,火候到了,味道自然就出来了。多试错,多复盘,你会发现,其实也没那么难。