首页/所有文章/hk-developer-ai-toolkit
香港 AI 工具栈

香港开发者的 AI 工具包:无需 VPN 实际可用的工具

Hong Kong AI Podcast/2026-03-07/10 min read/Developer ToolsDeepSeekQwenCursorOpenCodeHong Kong

你是香港的开发者。你想在工作流程中使用 AI。ChatGPT 被封锁了。Claude 被封锁了。Gemini API 返回「User location is not supported.」怎么办?

结果发现:选择还真不少。2026 年香港开发者的 AI 工具包出奇地强大——可以说比你只用 OpenAI 时更有趣。以下是实际可用的工具,无需 VPN。

LLM API ——基础层

DeepSeek API

DeepSeek 以其推理和对话能力引起广泛关注,其 MIT 授权使其成为自行部署的首选。没有地理限制。

你能获得什么: DeepSeek-V3.2(671B MoE,37B 活跃参数)、DeepSeek-R1(推理)以及完整的模型家族。MIT 授权——你可以自行部署一切。

API 访问: api.deepseek.com。OpenAI 兼容的 API 格式。定价仅为 GPT-4 的一小部分——V3 输入 token 为 $0.14/M,R1 为 $0.55/M。

注意: 对于编程任务,DeepSeek 不是最强的选择——MiniMax M2.5、GLM-5 和 Kimi K2.5 等模型在编程基准测试中得分更高。DeepSeek 的优势在于推理/对话、价格和自行部署。

自行部署: 通过 Ollama(最简单)、vLLM(生产环境)或 llama.cpp 运行。较小的模型如 DeepSeek-Coder 可以在消费级 GPU 上运行。完整的 V3.2 需要高端硬件或云端实例。

Alibaba Qwen API

强大的替代选择,尤其适合双语英中工作。

你能获得什么: Qwen 3.5(高达 397B MoE),支持 201 种语言,Apache 2.0 授权。在中文语言任务方面特别出色——这在为香港市场开发时非常重要。

API 访问: 通过 Alibaba Cloud Model Studio,或从 Hugging Face/ModelScope 自行部署。也可在 chat.qwen.ai 进行对话式使用。

Baidu ERNIE API

香港开发者较少使用,但值得了解。

你能获得什么: ERNIE 4.5(完全开源,Apache 2.0,高达 424B MoE,支持多模态)。ERNIE 5.0(2.4T 参数)处于预览阶段。

API 访问: 通过 Baidu 的千帆平台。开源权重可在 Hugging Face 上取得。

编程助手

Cursor

香港开发者中领先的 AI 编程 IDE。Cursor 无需 VPN 即可使用,并支持多种模型后端。

为什么在香港可用: Cursor 的 Auto 模式能智能地在内建模型之间路由。不需要手动设定 API——只需安装即可使用。

设定方式: 从 cursor.com 下载。Pro 方案($20/月)提供 Auto 模式和快速请求。进阶使用者也可以在 Settings > Models 中添加自定义模型提供者(Qwen 等)。

费用: 有免费方案。Pro 为 $20/月,提供更多请求次数。

OpenCode CLI

如果你偏好终端,OpenCode (opencode.ai) 是一个开源编程 CLI。可以把它想象成 Claude Code 或 GitHub Copilot CLI,但可以与任何模型搭配使用。

为什么在香港可用: 它是开源的,可以连接到你选择的任何 OpenAI 兼容 API。截至 2026 年 3 月,免费提供 MiniMax M2.5——一个顶级编程模型。完全没有地理限制。

设定方式: 通过 npm 或 homebrew 安装。开箱即用免费模型,或配置你自己的 API 提供者。

GitHub Copilot

在香港通过 GitHub 仍然可用。底层使用 OpenAI 模型,但 GitHub 的企业授权意味着没有地理封锁。

费用: 个人 $10/月,商业 $19/月。

聊天与一般使用

Microsoft Copilot

在香港获取 GPT-4 最「正式」的途径。可通过 Microsoft 365、Bing Chat 和 Copilot 应用程序使用。无需 VPN。

最适合: 企业环境,尤其是合规要求较高的金融和法律领域。IT 部门可以引用 Microsoft 的企业协议。

Poe by Quora

聚合平台,让你在香港访问 ChatGPT、Claude、Gemini 等。不是 API 替代品,但对于对话式使用和比较模型很有用。

费用: 免费方案有有限的消息数。$20/月可无限使用。

中国原生聊天应用

豆包(ByteDance)、Kimi(Moonshot AI)和 chat.qwen.ai 在香港都能原生使用。如果你习惯中文界面,这些都是强大的选择。

自行部署路径

对于想要完全控制的团队——不依赖 API、不受地理限制、数据不离开自己的基础设施:

[Ollama](https://ollama.com/) ——最简单的本地模型运行方式。一行命令安装,按名称拉取模型。适合开发和测试。(GitHub

vLLM ——生产级服务。更好的吞吐量,支持批次处理,开箱即用的 OpenAI 兼容 API。

llama.cpp ——可在 CPU 和消费级 GPU 上运行。适合笔记本电脑和边缘设备。

运行什么: DeepSeek-Coder-V2 用于编程任务。Qwen2.5 7B/14B 用于消费级硬件上的一般用途。完整的前沿模型需要云端 GPU(Lambda Labs、vast.ai 或配备 GPU 实例的 Alibaba Cloud ECS)。

新兴技术栈

一个实用的香港开发团队技术栈大致如下:

  • -IDE: Cursor 搭配 Auto 模式(或手动配置模型)
  • -终端: OpenCode CLI(截至 2026 年 3 月,免费提供 MiniMax M2.5)
  • -聊天: Poe 或 chat.qwen.ai 用于快速提问
  • -API: DeepSeek 或 Qwen API 用于生产应用
  • -企业: Microsoft Copilot 用于合规敏感的工作
  • -自行部署: Ollama 用于本地开发,vLLM 用于生产环境

讽刺的是:被美国 AI 工具切断,正在推动香港开发者在开源 AI 方面变得高度熟练。当你无法依赖单一供应商的 API 时,你会学会运行自己的基础设施。这是一项将会越来越重要的技能。



来源

在香港使用 AI 开发?我们正在收集从业者的真实故事。订阅 Hong Kong AI Podcast 收听关于什么真正有效的对话。

保持更新

在我们发布新文章和节目时收到通知。没有垃圾邮件,只有信号。

内容过时或有误?AI 发展迅速,我们希望做到正确。请通过以下方式告诉我们 contact@hongkongaipodcast.com