说实话,刚听到有人拿chatgpt画林黛玉的时候,我嘴角是抽搐的。

不是看不起AI,是觉得这题材太刁钻。

林黛玉那是一种“愁”,一种“病态美”,那种飘忽不定的魂儿。

机器能懂什么叫“葬花”的悲凉吗?

我觉得悬。

但最近圈子热度太高,我也忍不住去试了试。

毕竟做了12年大模型,不试试心里发痒。

结果呢?真香,但也真坑。

先说结论:能画出来,但想画出神韵,还得靠人。

我用的版本是最新的DALL-E 3,提示词写得那叫一个细致。

“中国古典名著红楼梦,林黛玉,眉如墨画,目如秋波,身穿淡粉色罗裙,站在潇湘馆,背景是竹子,烟雨朦胧,电影质感,8k分辨率。”

你看,这词够详细了吧?

生成出来的图,乍一看,卧槽,有点那味儿。

脸是美的,衣服是精致的。

但仔细一看,眼神是空的。

就像个精美的塑料模特,没有灵魂。

这就是目前AI最大的短板:它懂像素,不懂情感。

我特意调了十几版,发现只要加上“忧郁”、“哀愁”这种词,AI就容易过度解读。

要么哭得稀里哗啦,要么愁眉苦脸像个老太太。

完全没了少女的灵动。

这就很让人头疼。

这时候,就得靠后期修图了。

我找了一个做国风插画的朋友帮忙,把眼神部分重绘了一下。

加上一点泪痕,调整一下光影。

哎,这下对了。

那种“眼含秋水”的感觉,一下子就出来了。

所以,别指望AI一键出神作。

它只是个工具,而且是个有点笨拙的工具。

如果你是想做头像,随便玩玩,那chatgpt画林黛玉完全够用。

省去了找画师的几百块,还快。

但如果你想做海报,或者出版插图,那还是得人工介入。

这里有个小坑,大家注意。

AI生成的图,有时候手指会多一个关节。

或者衣服上的花纹,逻辑不通。

比如黛玉的披风,AI可能把它画成了一件卫衣。

这种细节,肉眼很难一眼看出来。

但懂行的人一看就露馅。

所以,审核环节不能省。

再说说提示词的技巧。

不要只堆砌形容词。

比如“美丽”、“高贵”、“悲伤”。

这些词太抽象,AI理解不了。

要用具体的画面感。

比如“眼泪在眼眶里打转,没有掉下来”,“手指轻轻捏着花锄”,“眼神看向远方,略带迷茫”。

这样生成的图,才有故事感。

我试了好几次,发现加上“侧脸”、“逆光”这种构图词,效果提升很大。

因为侧脸更能体现黛玉的清冷。

正面容易显得呆板。

还有一点,关于版权。

很多人问,用AI画的图能商用吗?

这个目前争议很大。

虽然OpenAI说用户拥有生成内容的版权,但法律层面还没完全界定清楚。

如果是个人发朋友圈,随便用。

要是想拿去卖钱,建议谨慎。

最好还是自己再加工一下,增加原创比例。

别到时候惹上麻烦,得不偿失。

总的来说,我对AI画画的态度是:爱恨交加。

爱它的效率,恨它的无趣。

它能帮你完成80%的工作,但最后20%的灵魂注入,还得靠人。

这就是为什么我坚持说,AI不会取代设计师,但会用AI的设计师会取代不会用的。

这话虽然老套,但理儿是这个理儿。

最后给想尝试的朋友几个建议。

第一,多试几个模型,不要死磕一个。

第二,学会修图,基础PS技能要有。

第三,多读原著,理解人物性格,提示词才能写准。

别光看图说话,要懂背后的文化。

这样你画出来的林黛玉,才不像个假人。

好了,今天就聊这么多。

如果有朋友想交流提示词,欢迎在评论区留言。

咱们一起探讨,看看谁能画出最传神的黛玉。

毕竟,这可是咱们中国人的浪漫,不能让机器给玩坏了。

记住,技术是冷的,但人心是热的。

用好了,它就是利器。

用不好,它就是累赘。

看你自己的本事了。

以上纯属个人经验,如有雷同,那肯定是我抄的...哦不,是英雄所见略同。

哈哈,开个玩笑。

希望这篇文章能帮到正在纠结的你。

加油,打工人!