这篇很短,因为它本来就是一个小问题:Ollama 下载的大模型到底放在哪里?
但这种小问题值得记录。很多本地 AI 工具不是一开始就复杂,而是随着模型越来越多、磁盘越来越满、备份越来越乱,才突然变成麻烦。
为什么查
本地模型最容易被低估的不是安装,而是存储。
一个模型几十 GB 很正常,多个版本叠起来以后,系统盘、数据盘、NAS、外接硬盘之间的边界就变得很重要。如果不知道模型实际落在哪个目录,以后清理、迁移、重装或者备份时都容易误判。
所以我当时先做了一件朴素的事:确认 Ollama 当前使用的模型目录,而不是凭印象操作。
我看重什么
这类检查我现在会关注三件事:
- 环境变量有没有单独指定模型目录。
- 默认目录是否仍在系统用户目录下面。
- 这个目录是否应该纳入备份或迁移计划。
如果只是临时试模型,默认目录问题不大。可一旦本地模型变成长期工作流的一部分,目录位置就不再是小细节。
这件事给我的提醒
AI 工具折腾里有很多“看起来不值得写”的小记录:模型在哪、缓存在哪、日志在哪、配置从哪里读。
真正出问题时,最省时间的往往就是这些基础记录。它们不华丽,但能让下一次迁移少一点猜测。
所以这篇不算教程,更像是给自己的基础设施小标签:先知道东西在哪里,再谈怎么把它用好。