很多人问Ollama模型存哪好,C盘爆红怎么办?这篇直接告诉你怎么改环境变量,一劳永逸。不用重装,不用迁移文件,改个配置就行。
说实话,刚玩Ollama那会儿,我也天真。
以为模型都存默认路径,C盘空间大得很。
结果呢?
下载了两个70B的参数,C盘直接报警。
红灯闪烁,看着都心慌。
这时候你再去搜教程,全是让你手动搬文件夹。
累不累啊?
还要改注册表,还要重启服务,万一搞坏了,数据丢了找谁哭去?
其实,根本不用这么麻烦。
核心就一个词:环境变量。
对,就是那个bashrc。
虽然Ollama是跨平台的,但在Linux或者Mac上,或者Windows的WSL里,bashrc是灵魂。
即便你用Windows原生,理解这个逻辑,也能帮你理清思路。
咱们先说Linux用户,或者用WSL的朋友。
打开终端,输入 vim ~/.bashrc。
别怕,就加一行。
export OLLAMA_MODELS=/your/new/path。
保存,退出。
然后 source ~/.bashrc。
搞定。
就这么简单。
但是,这里有个大坑。
很多新手改完,发现下载模型还是去C盘或者原路径。
为什么?
因为你没重启终端。
或者你开了多个终端窗口,旧的没生效。
一定要新开一个终端窗口试试。
或者在命令行里直接输入 echo $OLLAMA_MODELS。
看看输出是不是你改的那个路径。
如果不是,那你肯定改错了地方。
再说说Windows用户。
Windows没有bashrc,但有系统环境变量。
别去动那些乱七八糟的注册表。
右键“此电脑”,属性,高级系统设置,环境变量。
新建一个变量名:OLLAMA_MODELS。
变量值:D:\MyModels。
确定,确定,确定。
然后重启你的IDE,重启你的终端。
这时候你再拉取模型,它就乖乖去D盘了。
我见过太多人,为了省那点空间,把模型存在D盘,结果代码里路径写错,报错找不到文件。
这时候你就知道,统一路径管理有多重要。
还有,别信那些说“修改配置文件json”的偏方。
那是老版本的做法,现在官方早就支持环境变量覆盖了。
用老方法,不仅麻烦,还容易出bug。
比如,你改了json,下次升级Ollama,配置文件可能被覆盖。
到时候你哭都来不及。
所以,坚持用环境变量。
这是最稳妥,最官方,最不容易出错的方式。
另外,提醒一句。
路径里别带中文。
别带空格。
别带特殊符号。
就简单的英文字母和数字,加上斜杠。
D:\Models\Ollama。
这样最安全。
我有个朋友,非要在路径里加个“我的模型”,结果启动的时候报错,查了三天日志,最后发现是编码问题。
何必呢?
简单点好。
还有,如果你用Docker跑Ollama。
那更简单。
启动命令里加个-v挂载。
或者直接在docker-compose.yml里配环境变量。
原理都一样。
就是告诉Ollama,模型放哪。
别把模型塞进容器里。
容器是易失的,重启就没了。
一定要挂载到宿主机。
这也是为什么推荐大家用外部路径的原因。
数据持久化,才是硬道理。
最后,总结一下。
不管你是Linux还是Windows。
不管你是原生还是Docker。
核心思路就是:环境变量。
Linux用bashrc。
Windows用系统变量。
Docker用挂载或env。
别搞那些花里胡哨的。
改完记得重启。
记得检查变量是否生效。
别偷懒,多试一次。
不然报错的时候,你还得回来查我的文章。
希望能帮到你们。
别让你的C盘再报警了。
把空间留给系统,把模型留给高速盘。
这才是正道。
好了,就说到这。
有问题评论区见。
记得点赞收藏,不然下次找不到。
毕竟,这种干货,不常有。
我也是踩了无数坑,才总结出这点经验。
希望能帮你少走弯路。
毕竟,时间就是金钱。
尤其是做AI的,时间更值钱。
别浪费在找路径上。
直接改环境变量。
一键解决。
这才是高效的做法。
加油。
希望你的Ollama跑得飞快。
模型下载速度起飞。
C盘空间充足。
心情舒畅。
这就够了。
晚安。
(注:文中提到的bashrc修改ollama模型位置,确实是解决存储问题的关键,务必重视。)