Google推出三款全新的Gemini 2.0变体模型,包括针对不同应用场景的Flash、经济型Flash-Lite和实验性产品Pro。这些模型在性能和成本之间取得不同平衡,并具备文本输出功能以及处理图像和音频的能力。其中,Pro版本专为处理复杂提示和编程任务而设计,上下文窗口高达200万token。此外,Google还在进行Flash Thinking模型的预览,该模型类似于OpenAI o3和Deepseek-R1,具有额外的推理步骤功能。所有模型均可通过Google AI Studio、Vertex AI以及Google的高级版Gemini Advanced聊天机器人使用。
这些模型具备文本输出功能,并能处理图像和音频输入。未来几个月,Flash和Pro版本将增加图像、音频和实时视频功能。
Pro模型在基准测试中表现优异,尤其在数学任务方面,超越前代产品。然而,其在实际应用中的表现仍需进一步验证。
Google取消了短上下文和长上下文查询的价格区分,使得混合工作负载(文本和图像)的成本可能降低。
所有模型均可通过Google AI Studio、Vertex AI以及Google的高级版Gemini Advanced聊天机器人使用。
Google 推出三款全新的 Gemini 2.0 变体模型,针对不同应用场景,在性能和成本之间取得不同平衡。
Google 表示,去年 12 月发布的基础版 Gemini 2.0 Flash 模型现已全面开放使用,速率上限更高,性能也有提升。同时,Google 还推出了一个经济型变体 Gemini 2.0 Flash-Lite,目前通过 API 向开发者公开预览。
系列的最后一款是 Gemini 2.0 Pro,Google 称这是一个实验性产品。该版本专为处理复杂提示和编程任务而设计,上下文窗口高达 200 万token,是 Flash 版本的两倍。
目前这些模型仅支持文本输出,但 Google 计划在未来几个月为 Flash 和 Pro 版本增加图像、音频和实时视频功能。三个版本目前都能处理图像和音频输入。
Google 还在用 Gemini 2.0 测试 Flash Thinking 模型,其工作方式类似于 OpenAI o3 和 Deepseek-R1,即在生成答案前进行额外的推理步骤。这些模型可以访问 YouTube、地图和 Google 搜索。值得注意的是,此次发布中并未提及旗舰产品"Gemini 2.0 Ultra"。
在基准测试中,Gemini Pro 2.0 遥遥领先
Google 发布的基准数据显示,Gemini 2.0 Pro 几乎在所有领域都超越了前代产品。在数学任务方面,它在 MATH 测试中得分 91.8%,在 HiddenMath 中得分 65.2%,远超 Flash 系列。标准版 Flash 2.0 的表现介于 Flash Lite 和 Pro 之间,优于旧版 1.5 Pro。
在 OpenAI 的 SimpleQA 测试中,Pro 模型达到 44.3%,Gemini 2.0 Flash 达到 29.9%。Deepseek-R1 (30.1%) 和 o3-mini-high (13.8%) 在这项测试中表现欠佳,可能是因为训练数据集较小。该测试要求模型在无法访问互联网的情况下回答复杂的事实性问题 — 不过这对实际应用的意义可能有限。
在 API 定价方面,Google 取消了短上下文和长上下文查询的价格区分。这意味着混合工作负载(文本和图像)的成本可能低于 Gemini 1.5 Flash,尽管性能有所提升。
总的来说,Gemini 2.0 Flash 的价格高于前代产品。不过,新推出的 Flash-Lite 瞄准了老版本 1.5 Flash 的市场 — 价格相同但在大多数测试中表现更好。至于两个模型的实际质量是否相当,还需要实际应用来验证。
所有模型都可以通过 Google AI Studio 和 Vertex AI 使用,也可以在电脑和手机上通过 Google 的高级版 Gemini Advanced 聊天机器人使用。
© AI范儿
要进“
交流群
”,请关注公众号获取进群方式
投稿、需求合作或报道请添加公众号获取联系方式