香港開發者的 AI 工具包:無需 VPN 實際可用的工具
你是香港的開發者。你想在工作流程中使用 AI。ChatGPT 被封鎖了。Claude 被封鎖了。Gemini API 返回「User location is not supported.」怎麼辦?
結果發現:選擇還真不少。2026 年香港開發者的 AI 工具包出奇地強大——可以說比你只用 OpenAI 時更有趣。以下是實際可用的工具,無需 VPN。
LLM API ——基礎層
DeepSeek API
DeepSeek 以其推理和對話能力引起廣泛關注,其 MIT 授權使其成為自行部署的首選。沒有地理限制。
你能獲得什麼: DeepSeek-V3.2(671B MoE,37B 活躍參數)、DeepSeek-R1(推理)以及完整的模型家族。MIT 授權——你可以自行部署一切。
API 存取: api.deepseek.com。OpenAI 相容的 API 格式。定價僅為 GPT-4 的一小部分——V3 輸入 token 為 $0.14/M,R1 為 $0.55/M。
注意: 對於編程任務,DeepSeek 不是最強的選擇——MiniMax M2.5、GLM-5 和 Kimi K2.5 等模型在編程基準測試中得分更高。DeepSeek 的優勢在於推理/對話、價格和自行部署。
自行部署: 通過 Ollama(最簡單)、vLLM(生產環境)或 llama.cpp 運行。較小的模型如 DeepSeek-Coder 可以在消費級 GPU 上運行。完整的 V3.2 需要高階硬體或雲端實例。
Alibaba Qwen API
強大的替代選擇,尤其適合雙語英中工作。
你能獲得什麼: Qwen 3.5(高達 397B MoE),支援 201 種語言,Apache 2.0 授權。在中文語言任務方面特別出色——這在為香港市場開發時非常重要。
API 存取: 通過 Alibaba Cloud Model Studio,或從 Hugging Face/ModelScope 自行部署。也可在 chat.qwen.ai 進行對話式使用。
Baidu ERNIE API
香港開發者較少使用,但值得了解。
你能獲得什麼: ERNIE 4.5(完全開源,Apache 2.0,高達 424B MoE,支援多模態)。ERNIE 5.0(2.4T 參數)處於預覽階段。
API 存取: 通過 Baidu 的千帆平台。開源權重可在 Hugging Face 上取得。
編程助手
Cursor
香港開發者中領先的 AI 編程 IDE。Cursor 無需 VPN 即可使用,並支援多種模型後端。
為什麼在香港可用: Cursor 的 Auto 模式能智慧地在內建模型之間路由。不需要手動設定 API——只需安裝即可使用。
設定方式: 從 cursor.com 下載。Pro 方案($20/月)提供 Auto 模式和快速請求。進階使用者也可以在 Settings > Models 中添加自訂模型提供者(Qwen 等)。
費用: 有免費方案。Pro 為 $20/月,提供更多請求次數。
OpenCode CLI
如果你偏好終端,OpenCode (opencode.ai) 是一個開源編程 CLI。可以把它想像成 Claude Code 或 GitHub Copilot CLI,但可以與任何模型搭配使用。
為什麼在香港可用: 它是開源的,可以連接到你選擇的任何 OpenAI 相容 API。截至 2026 年 3 月,免費提供 MiniMax M2.5——一個頂級編程模型。完全沒有地理限制。
設定方式: 通過 npm 或 homebrew 安裝。開箱即用免費模型,或配置你自己的 API 提供者。
GitHub Copilot
在香港通過 GitHub 仍然可用。底層使用 OpenAI 模型,但 GitHub 的企業授權意味著沒有地理封鎖。
費用: 個人 $10/月,商業 $19/月。
聊天與一般使用
Microsoft Copilot
在香港獲取 GPT-4 最「正式」的途徑。可通過 Microsoft 365、Bing Chat 和 Copilot 應用程式使用。無需 VPN。
最適合: 企業環境,尤其是合規要求較高的金融和法律領域。IT 部門可以引用 Microsoft 的企業協議。
Poe by Quora
聚合平台,讓你在香港存取 ChatGPT、Claude、Gemini 等。不是 API 替代品,但對於對話式使用和比較模型很有用。
費用: 免費方案有有限的訊息數。$20/月可無限使用。
中國原生聊天應用
豆包(ByteDance)、Kimi(Moonshot AI)和 chat.qwen.ai 在香港都能原生使用。如果你習慣中文介面,這些都是強大的選擇。
自行部署路徑
對於想要完全控制的團隊——不依賴 API、不受地理限制、數據不離開自己的基礎設施:
[Ollama](https://ollama.com/) ——最簡單的本地模型運行方式。一行命令安裝,按名稱拉取模型。適合開發和測試。(GitHub)
vLLM ——生產級服務。更好的吞吐量,支援批次處理,開箱即用的 OpenAI 相容 API。
llama.cpp ——可在 CPU 和消費級 GPU 上運行。適合筆記型電腦和邊緣設備。
運行什麼: DeepSeek-Coder-V2 用於編程任務。Qwen2.5 7B/14B 用於消費級硬體上的一般用途。完整的前沿模型需要雲端 GPU(Lambda Labs、vast.ai 或配備 GPU 實例的 Alibaba Cloud ECS)。
新興技術棧
一個實用的香港開發團隊技術棧大致如下:
- -IDE: Cursor 搭配 Auto 模式(或手動配置模型)
- -終端: OpenCode CLI(截至 2026 年 3 月,免費提供 MiniMax M2.5)
- -聊天: Poe 或 chat.qwen.ai 用於快速提問
- -API: DeepSeek 或 Qwen API 用於生產應用
- -企業: Microsoft Copilot 用於合規敏感的工作
- -自行部署: Ollama 用於本地開發,vLLM 用於生產環境
諷刺的是:被美國 AI 工具切斷,正在推動香港開發者在開源 AI 方面變得高度熟練。當你無法依賴單一供應商的 API 時,你會學會運行自己的基礎設施。這是一項將會越來越重要的技能。
來源
- -DeepSeek API Documentation
- -DeepSeek API Pricing
- -Qwen Official Site
- -Qwen Models — Hugging Face
- -Alibaba Cloud Model Studio
- -Cursor IDE
- -OpenCode CLI
- -Ollama
- -Ollama — GitHub
在香港使用 AI 開發?我們正在收集從業者的真實故事。訂閱 Hong Kong AI Podcast 收聽關於什麼真正有效的對話。
在我們發布新文章和節目時收到通知。沒有垃圾郵件,只有訊號。