Ubuntu 双系统跑本地 LLM,听起来像是把一台电脑变成 AI 工作站。
真正折腾以后,我的判断更现实:能跑是一回事,能长期维护是另一回事。
为什么会想折腾
本地 LLM 的吸引力很直接:数据在本机,模型随便试,显卡资源自己掌控,不用所有事情都走云端。
如果机器有较强的 NVIDIA 显卡,Ubuntu 的生态也确实更适合很多 AI 工具。Ollama、ComfyUI、Python 环境、开发工具,放在 Linux 里会更自然。
真正要维护什么
第一是启动和系统边界。
双系统不是“多装一个系统”这么简单。启动项、GRUB、Windows、Ubuntu、更新后的引导顺序,都可能影响日常使用。
第二是显卡驱动。
本地 AI 很依赖 GPU。驱动、CUDA、桌面环境、显示器设置,任何一处不稳定,都会让模型体验变差。
第三是模型目录。
模型越来越大,不能一直扔在默认位置。语言模型、图像模型、ComfyUI 模型最好有清楚的目录规划,否则清理和迁移会很痛苦。
第四是环境隔离。
系统工具走包管理器,Python/AI 工具用独立环境,Node.js 用自己的版本管理。不要把所有依赖都塞进一个全局环境。
第五是备份。
系统快照、配置记录、重要目录同步,都要提前做。等驱动或系统更新出问题时再想备份,就晚了。
值不值得
如果你只是偶尔跑一个小模型,没必要上双系统。
如果你经常做本地 LLM、ComfyUI、模型测试、开发和自托管,Ubuntu 值得。但它不是“装完就省心”的方案,它是一个需要维护的工作站。
我现在更愿意把它看成长期基础设施,而不是一次性教程。基础设施的第一原则不是炫,而是边界清楚、可恢复、可迁移。