说实话,刚听到有人拿chatgpt画林黛玉的时候,我嘴角是抽搐的。
不是看不起AI,是觉得这题材太刁钻。
林黛玉那是一种“愁”,一种“病态美”,那种飘忽不定的魂儿。
机器能懂什么叫“葬花”的悲凉吗?
我觉得悬。
但最近圈子热度太高,我也忍不住去试了试。
毕竟做了12年大模型,不试试心里发痒。
结果呢?真香,但也真坑。
先说结论:能画出来,但想画出神韵,还得靠人。
我用的版本是最新的DALL-E 3,提示词写得那叫一个细致。
“中国古典名著红楼梦,林黛玉,眉如墨画,目如秋波,身穿淡粉色罗裙,站在潇湘馆,背景是竹子,烟雨朦胧,电影质感,8k分辨率。”
你看,这词够详细了吧?
生成出来的图,乍一看,卧槽,有点那味儿。
脸是美的,衣服是精致的。
但仔细一看,眼神是空的。
就像个精美的塑料模特,没有灵魂。
这就是目前AI最大的短板:它懂像素,不懂情感。
我特意调了十几版,发现只要加上“忧郁”、“哀愁”这种词,AI就容易过度解读。
要么哭得稀里哗啦,要么愁眉苦脸像个老太太。
完全没了少女的灵动。
这就很让人头疼。
这时候,就得靠后期修图了。
我找了一个做国风插画的朋友帮忙,把眼神部分重绘了一下。
加上一点泪痕,调整一下光影。
哎,这下对了。
那种“眼含秋水”的感觉,一下子就出来了。
所以,别指望AI一键出神作。
它只是个工具,而且是个有点笨拙的工具。
如果你是想做头像,随便玩玩,那chatgpt画林黛玉完全够用。
省去了找画师的几百块,还快。
但如果你想做海报,或者出版插图,那还是得人工介入。
这里有个小坑,大家注意。
AI生成的图,有时候手指会多一个关节。
或者衣服上的花纹,逻辑不通。
比如黛玉的披风,AI可能把它画成了一件卫衣。
这种细节,肉眼很难一眼看出来。
但懂行的人一看就露馅。
所以,审核环节不能省。
再说说提示词的技巧。
不要只堆砌形容词。
比如“美丽”、“高贵”、“悲伤”。
这些词太抽象,AI理解不了。
要用具体的画面感。
比如“眼泪在眼眶里打转,没有掉下来”,“手指轻轻捏着花锄”,“眼神看向远方,略带迷茫”。
这样生成的图,才有故事感。
我试了好几次,发现加上“侧脸”、“逆光”这种构图词,效果提升很大。
因为侧脸更能体现黛玉的清冷。
正面容易显得呆板。
还有一点,关于版权。
很多人问,用AI画的图能商用吗?
这个目前争议很大。
虽然OpenAI说用户拥有生成内容的版权,但法律层面还没完全界定清楚。
如果是个人发朋友圈,随便用。
要是想拿去卖钱,建议谨慎。
最好还是自己再加工一下,增加原创比例。
别到时候惹上麻烦,得不偿失。
总的来说,我对AI画画的态度是:爱恨交加。
爱它的效率,恨它的无趣。
它能帮你完成80%的工作,但最后20%的灵魂注入,还得靠人。
这就是为什么我坚持说,AI不会取代设计师,但会用AI的设计师会取代不会用的。
这话虽然老套,但理儿是这个理儿。
最后给想尝试的朋友几个建议。
第一,多试几个模型,不要死磕一个。
第二,学会修图,基础PS技能要有。
第三,多读原著,理解人物性格,提示词才能写准。
别光看图说话,要懂背后的文化。
这样你画出来的林黛玉,才不像个假人。
好了,今天就聊这么多。
如果有朋友想交流提示词,欢迎在评论区留言。
咱们一起探讨,看看谁能画出最传神的黛玉。
毕竟,这可是咱们中国人的浪漫,不能让机器给玩坏了。
记住,技术是冷的,但人心是热的。
用好了,它就是利器。
用不好,它就是累赘。
看你自己的本事了。
以上纯属个人经验,如有雷同,那肯定是我抄的...哦不,是英雄所见略同。
哈哈,开个玩笑。
希望这篇文章能帮到正在纠结的你。
加油,打工人!