Ollama 是一個輕量級、可延伸的大模型框架, 這個開源計畫能幫助你在本地電腦上玩轉和執行大語言模型。
如果你的電腦沒有 GPU 也是能使用的,只不過大模型會使用 CPU 計算慢一些。
第一步 部署
Ollama 支持 macOS、Windows 預覽版和 Linux 系統。你可以直接去開源計畫的主頁去找最新的部署方式: github.com/ollama
或者使用 Docker 來快速啟動 Ollama。 此外,Ollama還提供了Python 和 JavaScript 庫,方便開發者整合到自己的計畫中。
macOS
下載連結:github.com/ollama/ollama#macos
Windows預覽版
下載連結:github.com/ollama/ollama#windows-preview
Linux
安裝命令:
curl -fsSL https://ollama.com/install.sh | sh
Docker
Ollama 的官方 Docker 映像可在 Docker Hub 上找到,名為`ollama/ollama`。
第二步 下載模型
Ollama支持一系列模型,可以去 ollama.com/library 去下載,例如 Llama 3、Gemma、Mistral和國內的千問等模型都支持,具有不同的參數和大小,使用者可以根據需要下載和執行。
下載完成,你就能在本地電腦上隨意的切換和使用你下載的大模型了。
第三步 執行模型
你可以開啟命令列,使用使用 ollama run 命令執行模型,比如:
$ ollama run gemma:2b
執行這個命令會啟動 Ollama REPL,你可以在其中與 Gemma 2B 模型進行互動。以下是範例:
第四步:Web 界面
如果你不喜歡在命令列的視窗使用大模型,推薦你使用 Ollama WebUI ,啟動後你可以看到一個幹凈、直觀的界面,類似於 ChatGPT 的界面。
開源地址:https://github.com/open-webui/open-webui
推薦閱讀
1.
2.
3.
4.