内容:
很多兄弟问我,为什么非要把AI生图搞到本地?
答案很简单,省钱,且自由。
云端跑图,每次都要扣积分,稍微画多几张,钱包就瘪了。更头疼的是,那些敏感词、版权限制,在本地服务器上,你就是王。
今天不整虚的,直接上干货。我是老张,在这行摸爬滚打8年,见过太多人因为配置不对,装了一堆报错,最后心态崩了。
这篇教程,主打一个稳字。
首先,你得有块NVIDIA显卡。
别问AMD行不行,问就是麻烦。显存建议8G起步,12G以上体验更佳。如果是4090,那更是起飞。内存16G是底线,32G更舒服。硬盘必须留够50G空间,模型文件动不动就几个G,别到时候提示空间不足。
第一步,安装Python。
别去官网下最新的,容易出兼容问题。去下载Python 3.10.6或者3.11.8。安装的时候,一定、一定要勾选那个“Add Python to PATH”。这一步错了,后面全白搭。
第二步,下载WebUI。
推荐用秋叶整合包,或者官方的Stable Diffusion WebUI。对于新手,我强烈建议用整合包。里面自带了环境配置,你只需要解压,然后双击那个启动脚本就行。
如果你选择官方原版,需要在命令行里克隆仓库。
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
克隆完后,进入文件夹,找到webui-user.bat。用记事本打开,找到set COMMANDLINE_ARGS=这一行。
如果你想加速,可以加上--xformers参数。
set COMMANDLINE_ARGS=--xformers
保存,关闭。双击运行。
这时候,浏览器会自动弹出,地址通常是http://127.0.0.1:7860。
看到界面,别急着画。先去Extension标签页,更新一下扩展。
接着,去HuggingFace或者Civitai下载模型。
新手推荐下载SDXL 1.0或者SD 1.5的大模型。别一上来就搞LoRA,容易翻车。把下载的模型文件,放进models/Stable-diffusion文件夹里。
刷新页面,下拉菜单就能选到模型了。
这里有个坑,很多人下载模型后,发现列表里没有。
检查文件名,别带特殊符号。检查路径,别放错文件夹。
第三步,解决显存不足。
如果你显存小,跑图时爆显存,别慌。
在启动参数里加上--medvram或者--lowvram。
这两个参数能显著降低显存占用,虽然速度会慢点,但至少能跑起来。
第四步,开始你的第一次创作。
输入提示词。
比如:a cute cat, wearing sunglasses, cyberpunk style, 8k, highly detailed.
负面提示词:low quality, blurry, bad anatomy.
点击Generate。
如果成功了,恭喜你,你已经迈出了本地部署的第一步。
如果失败了,看控制台报错。
常见的错误有:CUDA out of memory,显存不够,换参数。
或者ImportError,环境没配好,重装Python或更新依赖。
本地部署虽然前期麻烦,但后期真香。
你可以无限次尝试,可以微调模型,可以训练自己的LoRA。
这种掌控感,是云端给不了的。
记住,AI生图本地部署教程的核心,不是代码多难,而是耐心。
别怕报错,报错是常态。
多查文档,多逛社区,问题总能解决。
如果你卡在某个步骤,或者不知道选哪个模型,欢迎随时来聊。
我不卖课,只分享经验。
毕竟,一个人跑图太孤独,大家一起交流,才能玩出花样。
本文关键词:ai生图本地部署教程