身為一個開發者,要在 Windows 下享受 Linux 的原生開發體驗,WSL2 (Windows Subsystem for Linux) 是首選。今天分享如何從零架設環境,並讓 WSL 裡的程式與 Windows 上的 Ollama AI Server 完美連線。
1. 安裝 WSL2
以「系統管理員」身分開啟 PowerShell,輸入以下指令即可安裝:
完成後重啟電腦,設定好 Linux 帳號密碼即可。
2. 安裝 VS Code 與 Remote - WSL 套件
為了在 Windows 介面編輯 Linux 裡的程式碼:
3. 設定 Windows 環境變數 (通訊成功的核心!)
這是最容易被忽略的一步。為了讓 Ollama 接受來自 WSL 的請求,必須告訴它監聽所有網路介面:
在 Windows 搜尋「編輯系統環境變數」。
點擊「環境變數」,在「使用者變數」新增以下兩項:
重要: 設定完後,請在右下角系統匣將 Ollama 退出 (Quit) 並重新啟動。
4. 開啟鏡像網路模式 (Mirrored Mode)
在 Windows 的使用者資料夾(C:\Users\您的名稱\)建立 .wslconfig 檔案,內容如下:
重啟 WSL 使其生效:
在 Windows PowerShell 執行:wsl --shutdown。
重新啟動您的 Ubuntu 終端機。
5. 將 Ollama Server 映射到 WSL
在「鏡像模式」下,WSL 與 Windows 共享同一個 localhost。您在 Linux 裡可以直接透過 localhost:11434 存取 Windows 上的服務,告別變動 IP 的困擾!
6. 連線測試:呼叫 Gemma 3:1b 模型
最後,在 WSL 終端機輸入這行指令進行最終測試:
連線成功回應範例:
{"model":"gemma3:1b","response":"您好!我是大型語言模型,由 Google 訓練... 現在,我確認連線成功了。 我準備好幫你做些什麼。"}
結語
透過 WSL2 + Mirrored Mode + 環境變數設定,我們打造了一個無障礙的 AI 開發環境。現在,您可以專心開發 RAG 系統,讓 AI 在您的虛擬環境中飛速運行!