苏州知名网站建设公司,全球设计公司排名,网站做镜像的有什么用,做网站用#x1f7e2; 定义速览#xff1a; Google AI Studio 是使用谷歌相关模型的网页#xff1b;Cherry Studio 是可以使用多种模型API Key的桌面软件。 文章目录一、Google AI Studio1.1 和Gemini网页版的区别1.2 免费层级的用量限制1.3 Google AI Studio 隐私问题#xff08;重…定义速览Google AI Studio 是使用谷歌相关模型的网页Cherry Studio 是可以使用多种模型API Key的桌面软件。文章目录一、Google AI Studio1.1 和Gemini网页版的区别1.2 免费层级的用量限制1.3 Google AI Studio 隐私问题重要1.31 案例分享1.32 Gemini API 附加服务条款1.4 API Key的价格1.5 Google AI Studio 使用说明二、Cherry Studio2.1 速通2.2 MCP一、Google AI Studio本小节内容基本可以在Gemini API文档中找到更详细的描述。URLhttps://aistudio.google.com/1.1 和Gemini网页版的区别简单来说就是Google AI Studio 可自定义的设置更多。模型选择Gemini 网页版 只能指定是最新模型的Flash快速或者Pro思考模式。而Studio 可以指定多种模型。参数调整AI Studio以调整 Temperature创造性 vs 严谨性、Top-K/Top-P、Output Length输出长度限制、图片数量、图片分辨率等等Gemini 网页版的Deep Research、Canvas等功能在AI Studio是没有的。对上传的文件格式支持不同这方面Gemini 网页版支持更丰富一些如AI Studio 里面不能上传xlsx表格。其它的则是相似的如AI Studio可以预设多个提示词AI Studio里面叫做System instructions而Gemini 网页版可以在设置-个人使用场景中设置全局的指令也可以创建Gem即给特定场景设置专属指令/提示词知识库以应对不同的需求。1.2 免费层级的用量限制Google AI Studio 里面可以免费使用最新的模型以及旧模型但有限制和代价。速率限制通常从以下三个维度进行衡量每分钟请求数 (RPM)每分钟 token 数输入(TPM)每日请求数 (RPD)我们会根据每项限制评估您的用量如果超出任何一项限制系统都会触发速率限制错误。例如如果您的 RPM 限制为 20那么在一分钟内发出 21 个请求会导致错误即使您未超出 TPM 或其他限制也是如此。速率限制按项目应用而不是按 API 密钥应用。每天的请求数 (RPD) 配额会在太平洋时间午夜重置。限额因所用模型而异并且部分限额仅适用于特定模型。例如每分钟生成的图片数 (IPM) 仅针对能够生成图片的模型Imagen3计算但在概念上与 TPM 类似。其他模型可能设有每日 token 数量上限 (TPD)。实验性模型和预览版模型的速率限制更为严格。来源Gemini API文档-速率限制速率限制与项目的用量层级Tier相关联:这里就把Tier1的速率限制列出来这是变化的只作为参考仅仅是发文时的数据这里是非批量API的速率限制主要看最后一列每日请求次数限制RPD即可。免费层级的我没找到准确数据也懒得找但据我以前的使用经验对话一般每天足够使用的除非你11这种问题也要问图片生成数量很少好像就几张。只要绑定有效的卡就可以升级Tier1使用这个key是付费的。免费层级也可以创建API Key这个key你可以在你的代码中使用或者其它软件中使用速率一样有限制。网页对话的Gemini3.0 Pro不适用以上内容也不是本文的主题。1.3 Google AI Studio 隐私问题重要1.31 案例分享三星源码泄露事件(2023)这是所有大模型包括 Google Gemini“免费层级”隐私警告的源头案例。虽然主角是 ChatGPT但它直接导致了 Google 随后更新了极其严格的内部政策并警告用户“免费层级的对话就是训练数据”。针对 Google Gemini 的“秘密监控”集体诉讼 (2025年11月):1.32 Gemini API 附加服务条款直接看官方文档吧即使你使用的是后者也最好不要上传敏感、机密、个人信息开源尚且有风险闭源就更不必说了。其它领域也是类似如不要向网盘上传我列举的那些内容1.4 API Key的价格列出3.0的对话和画图的价格其它模型以去官网文档查看下图中的官网的谷歌翻译有问题这里说明一下token、词元、令牌 都代表tokens提示prompts即你的输入一段文字一个pdf一个代码等等token与单词、汉字之间的数量关系语言/类型换算关系 (预估)备注英文 (English)100 Tokens ≈ 60 ~ 80 个单词官方数据。通常按1 Token ≈ 0.75 个单词估算最准。中文 (Chinese)100 Tokens ≈ 60 ~ 100 个汉字中文比较复杂。现代模型如 Gemini通常1 个汉字 ≈ 1 ~ 1.5 个 Token。字符 (Characters)1 Token ≈ 4 个字符这里的“字符”主要指英文字母。20万个token相当于大约150,000 个英文单词。大约130,000 ~ 200,000 个汉字。Gemini 3 Pro 预览版简要解释这个是按照一次会话可以有多轮直到你发起新的对话计算的在这一次会话中如果你的输入内容总长度不大于20万个tokens那么输入价格就是2美元/100万tokens输出价格就是12美元/100万tokens。场景输入 100 tokens输出 1000 tokens没超过 20万档位。输入费100 tokens × $ 2.00 1 , 000 , 000 $ 0.0002 100 \text{ tokens} \times \frac{\$2.00}{1,000,000} \$0.0002100tokens×1,000,000$2.00$0.0002输出费1000 tokens × $ 12.00 1 , 000 , 000 $ 0.012 1000 \text{ tokens} \times \frac{\$12.00}{1,000,000} \$0.0121000tokens×1,000,000$12.00$0.012总费用$ 0.0002 $ 0.012 $ 0.0122 \$0.0002 \$0.012 \mathbf{\$0.0122}$0.0002$0.012$0.0122上下文缓存AI模型是无状态的它不会自动记住上次对话。每次请求都是一个独立事件必须把需要它知道的“记忆”即上下文即前面所有输入输出全部塞给它。因此处理长文档的多轮对话会非常昂贵因为每次都要为不断变长文档付费。如果我一开始就丢给他一本书的PDF那我问了几个问题后费用不是爆炸不会模型有上下文缓存功能2.5及以后的模型的隐式缓存默认处于启用状态当上下文的tokens大于4096时即可开启这会降低你的费用。显式缓存开启时你自己使用Gemini的SDK、API写代码调用时的选项网页版和Studio中没有相关选项所以每次聊天的上下文不要太长了一方面是价格问题另一方面是上下文太长会降智比如一直回复相同的内容。Gemini 3 Pro Image 预览版1.5 Google AI Studio 使用说明目前页面不支持中文的聊天支持页面的英文选项你应该都认识。先用图片标注说明这个页面的各部分是什么含义吧模型参数解释1对话功能是否开启根据你的需求来比如你发给它一个网址让它读就开启URL context参数名称 (Parameter)中文名功能详解设置与建议Temperature温度控制随机性。0最严谨适合代码2最奔放适合创意。1是平衡点。1(平衡通用性好)Media resolution媒体分辨率识别图片/视频时的清晰度。Default是速度与细节的折中。Default(默认够用)Thinking level思考等级推理模型专用。决定模型在回答复杂问题前“思考”的时间长度。High(深度思考适合难任务)Structured outputs结构化输出强制模型只吐出标准JSON格式开发程序接口时用。关闭(一般对话不用开)Code execution代码执行给模型一个Python环境能写代码并真跑算数、画图。关闭(建议做数据分析时开启)Function calling函数调用让模型连接你的外部工具API是做智能体Agent用的。关闭Grounding with Google Search谷歌搜索联网能力。开启后可查实时信息新闻、天气、股价。开启(回答会带引用来源)URL context网址上下文允许直接读取提示词里贴的链接网页内容。关闭Safety settings安全设置敏感内容如仇恨言论的过滤阈值。默认Add stop sequence停止序列设定一个“暗号”模型一旦说到这个词就立马闭嘴停止生成。无Output length输出长度单次回答的最大容量Token数。65k大约能写几万字。65536(拉满即可)Top P核采样辅助控制随机性只选概率前95%的词防止模型胡言乱语。0.95(标准值不用动)️2画图参数名称中文含义功能解释推荐用法Aspect ratio宽高比决定生成图片的形状比例。根据你的需求选Resolution生成分辨率决定生成图片的清晰度/像素大小。根据需求选择音视频的就不说了选项很少。不同模型的参数有差异如Imagen 4可以一次最多生成4张不同的图片。画图最好的是Nano Banna Pro中文支持也好。二、Cherry Studio2.1 速通Cherry Studio是一款开源、跨平台的 AI 桌面客户端专门为专业用户和开发者设计。它就像一个“万能聚合器”你不需要去打开一个个独立的网页比如 ChatGPT、Claude、DeepSeek 官网而是把这些模型全部装进这一个软件里通过你自己的 API Key 来使用同时加上了极其强大的本地功能如知识库、自动化助手。直接去github即可下载https://github.com/CherryHQ/cherry-studio或者去官网https://www.cherry-ai.com/如使用gemini-3-pro-preview和gemini-3-pro-image-preview这两个叫做模型id画图示例各种功能自己探索即可都是中文。2.2 MCP知识库什么的就不展开说了比如你有一项新技术你可以把相关论文、教程创建一个知识库让AI基于这个知识库回答。AI的知识库是落后的让它搜索也可能效果不好较新、冷门的内容可以创建知识库。这里说一下Cherry Studio的MCP功能。MCP 全称是Model Context Protocol模型上下文协议它的核心目的是打破 AI 的孤岛状态让 AI 能以一种标准化的方式去读取你本地的数据、操作你的工具。使用VScode、Cursor、Google Antigravity的时候AI可以读取你整个项目的内容再使用Agent的话还能完全操控你的文件增加、删除、修改等而Cherry Studio 默认没有这些功能。先添加文件系统MCP填写配置示例主要设置args那里的项目目录可以填写多个目录告诉AI你要操作哪个即可以及isActive设置为true{mcpServers:{U-B_DuXl3EbzIGGOMeFNF:{isActive:true,name:cherry/filesystem,type:inMemory,args:[E:/AI/BrowserExtension],provider:CherryAI,shouldConfig:true,installSource:builtin,isTrusted:true},wU439NroVcqpl5K26dpRQ:{isActive:false,name:wU439NroVcqpl5K26dpRQ,type:stdio,installSource:unknown}}}在对话里面选择这个MCPAI就能读取电脑上的文件了让它生成一个readme文件检查无误不过目前使用下来还是没有前面我提到的那3个编辑器舒服你可以添加其它AI的key如deepseek的去deepseek开放平台弄就行了。