如果你像我一样在自托管的爱好中度过了过去几年,你会发现,家庭服务器上运行的大多数应用和服务并没有充分利用你的GPU。你在堆栈中运行的大多数工具,比如NextCloud或OpenCloud、AdGuard等,都是依赖CPU的。你的CPU负责处理从文件共享到广告拦截和家庭自动化的所有事务。与此同时,你为你的设备添加的高端GPU却闲置在那里。
但是,虽然大多数流行的自托管应用可能是为基于CPU的工作负载构建的,但有一些应用和服务能够充分利用你设备中的强大显卡。本地AI模型、实时媒体处理和视频分析(比如字符识别)都依赖于GPU加速,能够显著提升处理能力。以下是三个可以真正利用你的GPU的自托管服务,让它的功能远不止一个文件服务器。
Llama.cpp
利用你的GPU的本地AI
Llama.cpp 是运行本地大型语言模型的热门选择,事实证明,它是少数能够真正受益于GPU加速的自托管服务之一。这个承诺很明确:你可以在自己的服务器上运行一个迷你版的ChatGPT,完全不需要依赖云API或支付订阅费用。
Llama.cpp 是一个开源推理引擎,让您在普通硬件上部署流行的大型语言模型,如 LlaMA、Mistral 或甚至 Deepseek R1。不同的是,添加 GPU 加速后,它就从一个有趣的概念验证变成了您日常工具箱中真正可用的工具。GPU 的并行处理让它比任何 CPU 更快地处理令牌生成和上下文评估。这有双重好处。您不仅可以轻松运行大型 LLM,还能在使用 GPU 加速的 llama.cpp 实例时获得更快的结果。
Jellyfin
更快的 GPU 加速转码
在家里的服务器上播放自己的媒体吗?只要您在家里播放文件,通常没问题。不过,一旦开始远程流媒体,您会发现家庭服务器的 CPU 使用率飙升,因为转码开始了。事实证明,流行的开源媒体服务器 Jellyfin 可以优雅地通过将繁重的转码任务卸载到您的 GPU 上来解决这个问题。
每次您播放不支持您设备格式的电影或节目时,Jellyfin 可以即时转码它。这个过程可能会让大多数 CPU 不堪重负,特别是在处理高比特率的 4K 内容时,或者当多个用户同时进行流媒体播放时。然而,启用 GPU 加速后,Jellyfin 将这些工作负载交给您的显卡。通过标准 API 进行硬件加速转码,让您的 GPU 以更低的功耗和 CPU 占用率处理视频流的解码和编码。
Frigate
更智能的监控,由您的 GPU 提供支持
家庭安全摄像头已经非常普遍,但大多数商业型号依赖于基于云的 AI 进行运动和物体检测。如果您使用的是本地优先的摄像头,比如 Hikvision 或较老的 Ubiquiti 型号,您可能会完全错过这个功能。Frigate 把这个功能带回来了。它是一个开源的 NVR,提供与商业级智能相同的功能,甚至更多,同时在您自己的硬件上运行,并利用 GPU 加速。
Frigate不仅是记录摄像头视频流,它还使用实时物体检测来识别人员、车辆、宠物和包裹。通过GPU加速,Frigate可以同时处理多个视频流,以进行检测和跟踪,从而为您提供一个高效、智能且完全私密的监控系统。没有GPU加速,这些功能基本上无法实现,除非您使用像Coral这样的专用神经加速器。
借助GPU加速,Frigate将您的家庭监控从被动监控升级为全面的AI解读。它能区分一辆经过您街道的汽车和走下您车道的人,只在相关时向您发送通知。GPU卸载还意味着您的CPU可以保持空闲,执行其他任务和运行其他容器,而不会卡顿。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.