主要内容
谷歌刚刚推出了 Gemini 2.5 Flash-Lite 的稳定版本,实际上他们创建了一个旨在成为开发者的主力模型,这些开发者需要大规模构建应用而又不超预算。用人工智能构建酷炫的东西往往感觉像是一场令人沮丧的平衡行动。你想要一个智能且强大的模型,但又不想为 API 调用而抵押房屋。如果你的应用需要对用户快速响应,一个缓慢、低效的模型是不可行的。谷歌表示,Gemini 2.5 Flash-Lite 比他们之前的快速模型更快,这是一个很大的宣称。对于任何构建实时翻译器、客服聊天机器人或任何延迟会让人感到尴尬的东西的人来说,这是巨大的。
然后是价格。处理 100 万字输入需 0.10 美元,输出需 0.40 美元,非常便宜。这种价格改变了你对开发的看法。你终于可以不再担心每一个 API 调用,让你的应用自由运行。这为小团队和独立开发者打开了大门,让他们可以构建以前只有大公司才能做的事情。
现在,你可能会想,“好吧,它又便宜又快,所以一定有点笨吧?”显然不是。谷歌坚称,Gemini 2.5 Flash-Lite 模型在各个方面都比其前身更智能:推理、编码,甚至理解图像和音频。当然,它仍然有那个巨大的 100 万标记上下文窗口——这意味着你可以向它扔大量文档、代码库或长转录,它不会有任何压力。
而且这不仅仅是营销噱头,公司已经在使用它。太空技术公司 Satlyt 在卫星上使用它来诊断轨道问题,减少了延迟并节省了电力。另一家公司 HeyGen 用它将视频翻译成 180 多种语言。一个个人最喜欢的例子是 DocsHound,他们用它观看产品演示视频并自动创建技术文档。想象一下能节省多少时间!这表明 Flash-Lite 完全有能力处理复杂的现实世界任务。
如果你想尝试 Gemini 2.5 Flash-Lite 模型,现在可以在谷歌 AI Studio 或 Vertex AI 中开始使用。你只需在代码中指定“gemini-2.5-flash-lite”。请注意:如果你之前使用的是预览版本,请确保在 8 月 25 日之前切换到这个新名称,因为他们将淘汰旧版本。Gemini 2.5 Flash-Lite 不仅仅是谷歌的又一次模型更新,它降低了进入门槛,让更多人可以进行实验并构建有用的东西,而无需巨额预算。