刚入行那会儿,我为了搞个简单的去水印功能,差点把显卡烧了。现在回头看,真没必要花冤枉钱。很多兄弟问,为啥非要本地部署?答案很简单:怕泄露隐私,还有那些按月付费的API接口,用着用着就扣你钱,心累。今天这篇不整虚的,直接上干货,把这套ai修图本地部署教程掰碎了讲给你听。
先说硬件,别听那些吹嘘的,你至少得有一张N卡,显存8G起步,12G以上比较舒服。A卡也能跑,但配置麻烦,新手慎入。我手头这台RTX 3060 12G,跑Stable Diffusion的LoRA模型修图,速度还行,就是显存稍微有点紧巴巴。
第一步,环境搭建。别去搞那些复杂的Anaconda配置,容易出错。直接下载WebUI的整合包,比如秋叶包或者B站大佬整合好的版本。解压后,双击那个bat文件,它会自动下载Python环境。这里有个坑,国内网络下载模型经常超时,你得提前把镜像源改好,不然等着吧,能等到天荒地老。我在教程里强调过,一定要换源,这是成功的关键。
接下来是模型选择。官方给的模型太臃肿,加载慢还占内存。建议去Civitai或者Liblib下载专门针对人像优化的Checkpoint模型,比如ChilloutMix或者类似的亚洲人模型。下载下来放到models/Stable-diffusion文件夹里。这时候启动WebUI,界面出来了,别急着修图,先看看日志有没有报错。
重头戏来了,怎么修图。很多人不知道,本地部署最大的优势就是能跑ControlNet。比如你想把照片里的人换个姿势,或者去掉背景里的路人,ControlNet就是神器。安装ControlNet插件,加载对应的预处理器模型。这里要注意,预处理器模型也要单独下载,别指望它自动下完,经常断连。
举个例子,你有一张自拍,脸上有痘痘,想磨皮但又不想失真。用img2img功能,上传原图,调整重绘幅度(Denoising strength)到0.3到0.5之间。太低了没效果,太高了脸就变了。提示词里写清楚,比如“high quality, smooth skin, natural lighting”,负向提示词加上“acne, blemishes, ugly”。
还有那个ai修图本地部署教程里常提到的LoRA,这东西更轻量,效果更专一。比如你想让照片变成胶片感,或者增加某种特定的光影,下载对应的LoRA文件放到models/Lora文件夹。在WebUI的LoRA标签里勾选它,权重设0.7到0.9之间。这个参数很微妙,设高了画面会崩坏,设低了没感觉,得自己多试几次。
避坑指南:显存爆了怎么办?如果提示Out of Memory,别慌。在启动参数里加上--xformers或者--opt-sdp-attention,能省不少显存。还有,别开太大的分辨率,1024x1024足够了,再大显存扛不住,速度也慢。
最后说说隐私问题。你把照片存在本地,谁也别想看到。那些云端的AI修图软件,虽然方便,但你上传的照片可能被拿去训练他们的模型,想想都后背发凉。本地部署虽然前期折腾点,但一劳永逸。
这套流程走下来,大概花个半天时间就能搞定。虽然中间可能会有各种报错,比如Python版本不对,或者CUDA驱动不匹配,但这些问题网上都有解法。关键是别怕报错,多看日志。
记住,技术这东西,动手了就会。别光看教程不动手。当你第一次看到自己生成的完美修图结果时,那种成就感,比买新显卡还爽。希望这篇ai修图本地部署教程能帮到你,少走弯路。要是还有问题,去社区里搜搜,基本都有答案。别懒,动手才是硬道理。