📰 本频道不定期推送科技数码类新资讯,欢迎关注!
©️ 发布的内容不代表本频道立场,和你意见不一样的话欢迎在评论区留言表达,但请注意言辞,面斥不雅。
‼️ 关联群组定期清理不活跃成员和僵尸号,误封请联系管理员。
🔗 博客: https://yummy.best
💬 群组: @GodlyGroup
📬 投稿: @GodlyNewsBot
🪧 广告合作: @yummybest_bot.
©️ 发布的内容不代表本频道立场,和你意见不一样的话欢迎在评论区留言表达,但请注意言辞,面斥不雅。
‼️ 关联群组定期清理不活跃成员和僵尸号,误封请联系管理员。
🔗 博客: https://yummy.best
💬 群组: @GodlyGroup
📬 投稿: @GodlyNewsBot
🪧 广告合作: @yummybest_bot.
Google 将Maps 与Gemini打通
开发者可以将 Gemini 的推理能力与超过 2.5 亿个地点的数据连接起来,打造出具有地理空间感知能力的强大 AI 产品。
🗒 标签: #Google #Gemini
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot
开发者可以将 Gemini 的推理能力与超过 2.5 亿个地点的数据连接起来,打造出具有地理空间感知能力的强大 AI 产品。
Google CEO Sundar Pichai在位于旧金山举行的Dreamforce大会上宣布,Gemini 3.0将于今年晚些时候发布。他表示:“Gemini 3.0将是一款功能更强大的AI Agent,其进步比近年来的模型更加显著。”
根据此前传闻,Gemini 3.0将于本月发布,但Google尚未公布具体日期。
via 匿名
Google已将Gemini 2.5 Flash Image(Nano Banana)正式版API上架OpenRouter。
此前上架的是Preview (预览)版。
via 匿名
Google AI Studio和Gemini API产品负责人近日在X回复网友关于Gemini 3的问题,关于Gemini 3是否支持工具调用,他确认支持。
关于Gemini 3什么时候发布,他表示“好问题,他们正在深入思考”。
via 匿名
Google Cloud推出Gemini Enterprise(企业版)
https://blog.google/products/google-cloud/gemini-enterprise-sundar-pichai/
🗒 标签: #Google #Gemini
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot
https://blog.google/products/google-cloud/gemini-enterprise-sundar-pichai/
今天,Google发布Gemini 2.5 Flash和2.5 Flash-Lite模型的更新版本,可在Google AI Studio和Vertex AI上使用,旨在继续提供更好的质量,同时提高效率。
Gemini 2.5 Flash更新内容:更好地使用Agent工具,更高效,延迟和成本降低。
Gemini 2.5 Flash-Lite更新内容:更好地遵循指令,减少冗余输出,更强大的多模态和翻译能力。
Google表示,为了让用户更轻松地访问我们的最新模型,为每个模型系列引入了一个-latest别名。此别名始终指向最新的模型版本,让你可以体验最新功能,而无需为每个版本模型更新code,可以使用gemini-flash-latest和gemini-flash-lite-latest访问新的预览版模型。
对于需要更高稳定性的应用程序,请继续使用gemini-2.5-flash和gemini-2.5-flash-lite。
根据OpenRouter的模型页面,两款模型均为100万上下文窗口,API价格分别为:
Gemini 2.5 Flash Preview 09-2025
输出:0.3美元/每百万tokens
输入:2.5美元/每百万tokens
Gemini 2.5 Flash Lite Preview 09-2025
输出:0.1美元/每百万tokens
输入:0.4美元/每百万tokens
via 匿名
Google周四在一篇博客文章中说,它将向美国Mac和Windows电脑用户以及移动设备用户推出Chrome版Gemini。用户将能够要求Gemini帮助理解特定网页的内容,跨选项卡工作,或者在单个选项卡内完成更多工作,例如安排会议或搜索YouTube视频。
via 𝑍𝒊𝑅𝐶𝑂𝑁
Google现已正式公布Gemini的具体使用次数限制数据(指Gemini网站和app中),涉及免费用户、Google AI Pro和Google AI Ultra订阅用户。
免费用户每天仅可使用Gemini 2.5 Pro最多5次提示(prompt),Deep Research(深度研究)功能每月最多可以使用Gemini 2.5 Flash生成5份报告,每天最多生成与编辑100张图片。
而Google AI Pro和Ultra订阅用户则使用次数较多,具体可见图中表格。免费用户建议在Google AI Studio中使用Gemini 2.5 Pro,使用次数较多,或使用API。
via 匿名
继今天早些时候Google搜索出现故障后,Google Gemini也出现故障。根据故障跟踪服务DownDetector上的图表显示,美国东部时间上午7:37左右,用户报告量激增。
在社交媒体上,一些Gemini用户也表示AI聊天机器人存在问题,许多用户反映无法访问Gemini。
via 匿名
AI Pro 和 AI Ultra 订阅用户(仅限美国地区)可以在 AI 模式中使用 Gemini 2.5 Pro,来处理更复杂的“推理、数学和编码”类的问题。
在幕后,Google会执行“数百次搜索”,并在“不同信息片段之间推理”,以生成一份“全面、带有引用的报告”。Deep Search 还会在开始搜索前询问你需要的具体细节,确保提供更精准的答案。
包含 Gemini 2.5 Pro、5 倍额度的 NotebookLM、Veo 3 以及 2TB 的云存储空间。
𝕏 / 官方公告
Google再次推出了其“Ask Photos”AI 搜索工具,还加快了搜索速度
Google 的 Gemini AI 模型为 Ask Photos 提供支持,你可以提出复杂的问题让AI来帮助你找到照片。但在本月早些时候,Google Photos团队的一名成员在推特上表示,这一功能“在延迟、质量和用户体验方面还没有达到理想状态。”
在周四发布的一篇博文中,Google 表示,他们“听到了大家的反馈”,认为这个功能应“更快地返回简单搜索的照片,比如‘海滩’或‘狗’。”
现在,按照Google的说法,“对于简单搜索,你现在会立刻看到结果,而 Gemini 模型会继续在后台工作,为更复杂的查询寻找最相关的照片或信息。”
Google表示,这项功能现在已经“超出了早期访问阶段”,并开始向更多“符合条件的美国用户”开放。
🗒 标签: #Google #Gemini
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot
Ask Photos 由Gemini AI提供支持
Google 的 Gemini AI 模型为 Ask Photos 提供支持,你可以提出复杂的问题让AI来帮助你找到照片。但在本月早些时候,Google Photos团队的一名成员在推特上表示,这一功能“在延迟、质量和用户体验方面还没有达到理想状态。”
在周四发布的一篇博文中,Google 表示,他们“听到了大家的反馈”,认为这个功能应“更快地返回简单搜索的照片,比如‘海滩’或‘狗’。”
现在,按照Google的说法,“对于简单搜索,你现在会立刻看到结果,而 Gemini 模型会继续在后台工作,为更复杂的查询寻找最相关的照片或信息。”
Google表示,这项功能现在已经“超出了早期访问阶段”,并开始向更多“符合条件的美国用户”开放。
现在只说每天可使用1000次Gemini 模型,而原先指定的是Gemini 2.5 Pro模型
Gemini CLI 一天内增加了25K Star
通过终端命令行使用Gemini
快速开始:
1. 前提条件:确保你已经安装了版本为 18 或更高的 Node.js。
2. 在你的终端中执行以下命令:
npx https://github.com/google-gemini/gemini-cli 或者安装它:
npm install -g @google/gemini-cli3. 选择一个颜色主题
4. 验证:当系统提示时,请使用您的个人谷歌账号登录。这将允许您每分钟最多进行 60 次模型请求和每天最多进行 1,000 次模型请求,使用的是 Gemini 2.5 Pro 版本。
如果您需要使用特定模型或需要更高的请求容量,您可以使用API密钥
Google 悄悄推出了 ML Kit GenAI API,让安卓应用可以在多款旗舰设备上使用 Gemini Nano
本周早些时候,谷歌悄然发布了关于 ML Kit 新 GenAI API 的文档。
ML Kit 是一个 SDK,可以让开发者在不了解底层模型工作原理的情况下,在他们的应用中使用机器学习功能。新的 GenAI API 允许开发者通过简化的高级接口,利用 Gemini Nano 的强大性能来完成常见的任务。
就像 AI Edge SDK 一样,它“构建在 AICore 之上”,实现了“像 Gemini Nano 这样的 AI 基础模型的设备端执行,通过本地数据处理增强了应用功能和用户隐私。
换句话说,ML Kit 的 GenAI API 让开发者可以简单地、私密且高效地在他们的应用中使用 Gemini Nano 来实现各种功能。
目前这些功能包括总结、校对或重写文本,以及生成图像描述。这四项功能与 I/O 会议描述中提到的内容一致,暗示谷歌计划在下周正式宣布 ML Kit 的 GenAI API。
Google 正在回收「免KYC」领取的Gemini Advanced 学生优惠订阅
登录显示后会显示:
早些时候,用户无需验证学生身份即可直接获得订阅
🗒 标签: #Google #Gemini
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot
登录显示后会显示:
你的Gemini Advanced订阅已到期
早些时候,用户无需验证学生身份即可直接获得订阅
此前,Google 宣布Google One AI Premium 对美国大学生免费至 2026 年6 月
原本,谷歌打算将其绑定在 Gemini 高级订阅中。
谷歌今天宣布,Gemini Live 的一项功能可以查看和响应相机及屏幕上的内容,现在所有安卓用户都可以通过 Gemini 应用免费使用该功能。
本月早些时候,这项由 AI 驱动的功能正式上线,适用于使用 Gemini 应用的 Pixel 9 和三星 Galaxy S25 用户。当时,谷歌表示该功能将“很快”向所有安卓用户推出,但仅限于订阅 Gemini Advanced 服务的用户。
然而,公司改变了主意,现在将其免费提供。
Google在 X 上表示:“我们收到了关于 Gemini Live 相机和屏幕共享功能的好评,所以我们决定让更多人能够使用它。”
从今天开始,该功能将向所有拥有 Gemini 应用的安卓用户推送,推送过程将在“未来几周内”完成。
自从推出以来,Gemini 应用要求你使用 Google 账号登录才能访问。现在不再需要这样做了。
今天起,在隐身模式或类似模式下访问 gemini.google.com,会直接进入聊天界面,而不是之前的登录页面。
可选模型包含 2.0 Flash Thinking (experimental、Deep Research 和个性化(实验性)功能,不过你需要“登录才能探索最新的 Gemini 模型。”因此,你正在使用 Gemini 2.0 Flash。
此外,在安卓上的 Gemini 应用仍然要求你登录。
在周四的公告之后,谷歌正在大范围推出最新的 Gemini 模型,包括 2.0 Flash Thinking(实验性),这些模型将应用于网页、安卓和 iOS 应用程序。
和往常一样,谷歌首先在 gemini.google.com 上推出新模型,移动应用程序会在几天后跟进。到周六下午,我们看到多个 Gemini 账户的可用性大大增加。
所有 Gemini(免费)用户都可以使用 2.0 Flash Thinking(实验版)。在这一批模型中,公司开始把“实验版”用小写并放在括号内。因此,现在也有了 2.0 Pro(实验版),谷歌并没有宣布高端型号的其他变化。与今年二月初推出的前一版本相比,新的 Flash Thinking 提供了“更高的效率和速度”。
现在,你可以访问像@Gmail、@YouTube 等 Gemini 应用,谷歌将上个月的“带应用”模型合并并淘汰掉。现在所有人都可以上传文件,高级用户还可以获得 1M 的令牌上下文窗口。
与此同时,所有 Gemini 账户都可以使用深度研究。这个功能由 Gemini 2.0 Flash Thinking(实验性的)提供支持,但 Google 不再明确说明使用了什么模型。在网页上,提示栏里有一个新的“深度研究”按钮,或者你可以继续使用模型选择器。免费用户的研究限制低于高级用户。
最后,谷歌宣布了一种新的个性化(实验性)模型,所有用户都可以进行测试。这个模型是由 2.0 Flash Thinking(实验性)提供支持的,会对你输入的提示进行分析,看看你的搜索历史是否能“让答案更好”。这对于头脑风暴和个性化推荐非常有用,示例提示如:
- Where should I go on vacation this summer?
- I want to start a YouTube channel but need content ideas.
- What would you suggest I learn as a new hobby / job?
未来,谷歌不仅会使用搜索引擎,还会利用像 YouTube 和照片这样的服务。这是谷歌努力打造个人 AI 助手的一部分,这个助手不仅会回答常规问题,还能够理解你。