2026/03/02

在 Win11 下,如何使用 WSL 虛擬環境來開發 AI 專案!


身為一個開發者,要在 Windows 下享受 Linux 的原生開發體驗,WSL2 (Windows Subsystem for Linux) 是首選。今天分享如何從零架設環境,並讓 WSL 裡的程式與 Windows 上的 Ollama AI Server 完美連線。

1. 安裝 WSL2

以「系統管理員」身分開啟 PowerShell,輸入以下指令即可安裝:

PowerShell
wsl --install

完成後重啟電腦,設定好 Linux 帳號密碼即可。

2. 安裝 VS Code 與 Remote - WSL 套件

為了在 Windows 介面編輯 Linux 裡的程式碼:

  • 安裝 VS Code

  • 在 Extensions 搜尋並安裝 「WSL」 (原名 Open Remote - WSL)。

  • 點擊左下角「藍色雙箭頭」圖示,選擇 "Connect to WSL" 進入 Linux 環境。

3. 設定 Windows 環境變數 (通訊成功的核心!)

這是最容易被忽略的一步。為了讓 Ollama 接受來自 WSL 的請求,必須告訴它監聽所有網路介面:

  1. 在 Windows 搜尋「編輯系統環境變數」。

  2. 點擊「環境變數」,在「使用者變數」新增以下兩項:

    • OLLAMA_HOST: 設定為 0.0.0.0 (允許所有來源連入)。

    • OLLAMA_ORIGINS: 設定為 * (解決跨網域 CORS 問題)。

  3. 重要: 設定完後,請在右下角系統匣將 Ollama 退出 (Quit) 並重新啟動。

4. 開啟鏡像網路模式 (Mirrored Mode)

在 Windows 的使用者資料夾(C:\Users\您的名稱\)建立 .wslconfig 檔案,內容如下:

.wslconfig
[wsl2]
networkingMode=mirrored
hostAddressLoopback=true
ignoredPorts=11434,8000,3000
ipv6=false

重啟 WSL 使其生效:

  1. 在 Windows PowerShell 執行:wsl --shutdown

  2. 重新啟動您的 Ubuntu 終端機。

5. 將 Ollama Server 映射到 WSL

在「鏡像模式」下,WSL 與 Windows 共享同一個 localhost。您在 Linux 裡可以直接透過 localhost:11434 存取 Windows 上的服務,告別變動 IP 的困擾!

6. 連線測試:呼叫 Gemma 3:1b 模型

最後,在 WSL 終端機輸入這行指令進行最終測試:

Bash
curl http://localhost:11434/api/generate -d '{
  "model": "gemma3:1b",
  "prompt": "你好,請自我介紹並確認連線成功。",
  "stream": false
}'

連線成功回應範例:

{"model":"gemma3:1b","response":"您好!我是大型語言模型,由 Google 訓練... 現在,我確認連線成功了。 我準備好幫你做些什麼。"}


結語

透過 WSL2 + Mirrored Mode + 環境變數設定,我們打造了一個無障礙的 AI 開發環境。現在,您可以專心開發 RAG 系統,讓 AI 在您的虛擬環境中飛速運行!

No comments:

Post a Comment