本文为社区投稿作品翻译。 在本地计算机上运行大型语言模型(LLM)正变得越来越流行,它能提供隐私保护、离线访问和自定义功能。Ollama 是一款出色的工具,可以简化本地下载、设置和运行 LLM 的流程。它以强大的 llama.cpp 作为后端,支持在各种硬件上高效推理。本指南将介绍如何在 openSUSE Tumbleweed 上安...