Cloudflare AI Gateway + Gemini 接入 AI 聊天客户端教程(大部分内容由AI生成)
哈喽,各位AI爱好者们!是不是觉得直接用 Google Gemini API 有点麻烦,或者想用 LobeChat、ChatGPT-Next-Web 这样的漂亮界面来和 Gemini 聊天?别担心,今天我来手把手教你,如何利用 Cloudflare 的免费 AI Gateway 服务,让你的 Gemini 模型也能在这些客户端里自由驰骋!
核心思路: Cloudflare AI Gateway 提供了一个“翻译官”功能(OpenAI 兼容模式),能把你的聊天客户端发出的请求“翻译”成 Google Gemini 能听懂的语言,再把 Gemini 的回复“翻译”回来。这样,客户端就以为自己在和 OpenAI 聊天,实际上是在和 Gemini 对话!
准备工作:你需要这些东西
-
Google AI Studio API Key:
- 这是你和 Gemini 对话的“通行证”。
- 获取地址:https://aistudio.google.***/app/apikey
- 登录后点击“创建 API 密钥”,复制下来,它通常以
AIzaSy...开头。请务必妥善保管,不要泄露!
-
一个 Cloudflare 账号:
- 如果你还没有,注册一个免费账号。
- https://dash.cloudflare.***/sign-up
-
一个支持 OpenAI API 的 AI 聊天客户端:
- 比如:LobeChat、ChatGPT-Next-Web、Ama 等。这些客户端通常都会有“自定义 API URL”或“Base URL”的设置选项。
第一步:创建你的 Cloudflare AI Gateway
这一步是搭建“翻译官”的关键。
-
登录 Cloudflare Dashboard。
-
在左侧导航栏,找到并点击 "AI",然后选择 "AI Gateway"。
-
点击右侧的 "Create Gateway" (创建网关)。
-
在弹出的窗口中:
Gateway Name (网关名称): 给你的网关起一个好记的名字,比如my-gemini-gateway。点击 "Create"。 - 点击进入刚刚创建的网关,然后点击右上角的API那个按钮。里边会有后面需要的账户ID和网关名称。
-
复制你的 AI Gateway 终点 URL:
- 创建成功后,页面会显示你的 AI Gateway 的详细信息。
- 在页面顶部,你会看到一个名为 "API 终点" (API Endpoint) 的 URL。它看起来像这样:
https://gateway.ai.cloudflare.***/v1/你的账户ID/你的网关名称/google-ai-studio(例如:https://gateway.ai.cloudflare.***/v1/dadsfasdfzcvadsf/my-gemini-gateway/google-ai-studio)注:这是点击universal列框处选Google ai studio后会出现的API端点样式。在最终的url一般就没google-ai-studio这样得后缀了。 - 请务必复制这个完整的 URL! 这是我们构建最终 API URL 的基础。
-
cloud flare支持openai兼容端点。将之前在得到的对应放入。
第二步:构建你最终的 API URL(给客户端用)
这是最关键的一步,也是很多人容易出错的地方!
Cloudflare AI Gateway 有一个神奇的 /***pat 模式,能让它兼容 OpenAI 的 API 格式。
你最终要提供给客户端的 API URL 是: 你的 AI Gateway 终点 URL 的前面部分 + /***pat
举例来说: 如果你的 AI Gateway 终点是: https://gateway.ai.cloudflare.***/v1/dadsfasdfzcvadsf/my-gemini-gateway/google-ai-studio
那么你最终要给客户端填写的 API URL (Base URL) 就是: https://gateway.ai.cloudflare.***/v1/dadsfasdfzcvadsf/my-gemini-gateway/***pat
划重点:
-
不要包含 后面的
/google-ai-studio! -
不要添加
/chat/***pletions!大部分客户端会自动添加这部分。
举个cherry studio上边的例子
最后边加上斜杠是因为这样客户端才不会自动加上/v1/chat/***pletions。最终的url是图中最下方的灰色字体。不同客户端可能会不一样。图中那个v1beta是可以填成v1的,推荐就用v1了。之前我测试的忘记改回来了。
第三步:配置你的 AI 聊天客户端
现在,打开你喜欢的 AI 聊天客户端,找到 API 设置部分。
-
API URL / Base URL / 接口地址:
- 填入你在 第二步 中构建的最终 API URL。
- 例如:
https://gateway.ai.cloudflare.***/v1/dadsfasdfzcvadsf/my-gemini-gateway/***pat
-
API Key / Token:
- 填入你在 准备工作 中获取的 Google AI Studio API Key (以
AIzaSy...开头的那个)。
- 填入你在 准备工作 中获取的 Google AI Studio API Key (以
-
模型选择 (Model Name):
- 这是另一个容易出错的地方!为了告诉 Cloudflare AI Gateway 你要用哪个提供商的哪个模型,模型名称必须是
{提供商名称}/{模型名称}的格式。 - 对于 Gemini 模型,提供商名称是
google-ai-studio。 - 所以,你需要填入的模型名称是:
-
google-ai-studio/gemini-2.5-flash -
google-ai-studio/gemini-2.5-pro
-
-
不要只写
gemini-2.5-flash! 那样会报错。
- 这是另一个容易出错的地方!为了告诉 Cloudflare AI Gateway 你要用哪个提供商的哪个模型,模型名称必须是
非Google ai studio的可以通过这种方式查看。
Google AI Studio · Cloudflare AI Gateway docs这是对应的官方文档,模型调用方式一般在对应的文章的最后面如Google ai studio的
找model这个关键字。看不懂的话可以问问ai。基本上重点就是这个模型的命名。弄好后在客户端手动加上即可,还是以cherry studio为例。
第四步:发送消息并解决流式乱码问题(主要解决方式是要关闭流式,具体原因我也不知道)
现在,你可以尝试在客户端中发送一条消息给你的 Gemini 模型了!
关于流式输出乱码的问题:
一些用户在使用 Cloudflare AI Gateway 的 ***pat 端点,并通过某些客户端开启流式输出时,可能会遇到中文乱码或内容不完整的情况。
-
原因分析: 这通常是由于客户端对流式响应的数据包解析不完全,或者编码处理不当导致的。虽然
***pat端点支持流式,但客户端的实现可能与 Cloudflare/Gemini 的流式响应格式存在细微兼容性问题。 -
解决方案 (推荐):
- 优先关闭客户端的流式输出功能。 大多数聊天客户端在设置里都有一个“流式输出”、“实时显示”或类似的选项,将其关闭。这样模型会一次性返回完整回复,虽然可能需要稍等片刻,但通常能避免乱码。
- 如果客户端没有关闭流式输出的选项,或者你确实需要流式体验,那你得自己解决了。有办法的话记得在评论中说说,我也想知道。
恭喜你!
现在,你应该已经成功地通过 Cloudflare AI Gateway,在你的 AI 聊天客户端中愉快地使用 Google Gemini 模型了!
记得检查 Cloudflare AI Gateway 的日志(在你的网关页面点击 "Logs" 标签),看看你的请求是否成功通过。
希望这个教程能帮到你和更多的小白用户!如果你在设置过程中遇到任何问题,欢迎留言讨论。