内容:

很多兄弟问我,为什么非要把AI生图搞到本地?

答案很简单,省钱,且自由。

云端跑图,每次都要扣积分,稍微画多几张,钱包就瘪了。更头疼的是,那些敏感词、版权限制,在本地服务器上,你就是王。

今天不整虚的,直接上干货。我是老张,在这行摸爬滚打8年,见过太多人因为配置不对,装了一堆报错,最后心态崩了。

这篇教程,主打一个稳字。

首先,你得有块NVIDIA显卡。

别问AMD行不行,问就是麻烦。显存建议8G起步,12G以上体验更佳。如果是4090,那更是起飞。内存16G是底线,32G更舒服。硬盘必须留够50G空间,模型文件动不动就几个G,别到时候提示空间不足。

第一步,安装Python。

别去官网下最新的,容易出兼容问题。去下载Python 3.10.6或者3.11.8。安装的时候,一定、一定要勾选那个“Add Python to PATH”。这一步错了,后面全白搭。

第二步,下载WebUI。

推荐用秋叶整合包,或者官方的Stable Diffusion WebUI。对于新手,我强烈建议用整合包。里面自带了环境配置,你只需要解压,然后双击那个启动脚本就行。

如果你选择官方原版,需要在命令行里克隆仓库。

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

克隆完后,进入文件夹,找到webui-user.bat。用记事本打开,找到set COMMANDLINE_ARGS=这一行。

如果你想加速,可以加上--xformers参数。

set COMMANDLINE_ARGS=--xformers

保存,关闭。双击运行。

这时候,浏览器会自动弹出,地址通常是http://127.0.0.1:7860。

看到界面,别急着画。先去Extension标签页,更新一下扩展。

接着,去HuggingFace或者Civitai下载模型。

新手推荐下载SDXL 1.0或者SD 1.5的大模型。别一上来就搞LoRA,容易翻车。把下载的模型文件,放进models/Stable-diffusion文件夹里。

刷新页面,下拉菜单就能选到模型了。

这里有个坑,很多人下载模型后,发现列表里没有。

检查文件名,别带特殊符号。检查路径,别放错文件夹。

第三步,解决显存不足。

如果你显存小,跑图时爆显存,别慌。

在启动参数里加上--medvram或者--lowvram。

  • -medvram是中等显存优化,--lowvram是低显存优化。
  • 这两个参数能显著降低显存占用,虽然速度会慢点,但至少能跑起来。

    第四步,开始你的第一次创作。

    输入提示词。

    比如:a cute cat, wearing sunglasses, cyberpunk style, 8k, highly detailed.

    负面提示词:low quality, blurry, bad anatomy.

    点击Generate。

    如果成功了,恭喜你,你已经迈出了本地部署的第一步。

    如果失败了,看控制台报错。

    常见的错误有:CUDA out of memory,显存不够,换参数。

    或者ImportError,环境没配好,重装Python或更新依赖。

    本地部署虽然前期麻烦,但后期真香。

    你可以无限次尝试,可以微调模型,可以训练自己的LoRA。

    这种掌控感,是云端给不了的。

    记住,AI生图本地部署教程的核心,不是代码多难,而是耐心。

    别怕报错,报错是常态。

    多查文档,多逛社区,问题总能解决。

    如果你卡在某个步骤,或者不知道选哪个模型,欢迎随时来聊。

    我不卖课,只分享经验。

    毕竟,一个人跑图太孤独,大家一起交流,才能玩出花样。

    本文关键词:ai生图本地部署教程