📰 本频道不定期推送科技数码类新资讯,欢迎关注!
©️ 发布的内容不代表本频道立场,和你意见不一样的话欢迎在评论区留言表达,但请注意言辞,面斥不雅。
🔗 博客: https://yummy.best
💬 群组: @GodlyGroup
📬 投稿: @GodlyNewsBot
🪧 广告合作: @yummybest_bot.
©️ 发布的内容不代表本频道立场,和你意见不一样的话欢迎在评论区留言表达,但请注意言辞,面斥不雅。
🔗 博客: https://yummy.best
💬 群组: @GodlyGroup
📬 投稿: @GodlyNewsBot
🪧 广告合作: @yummybest_bot.
过去一年多里,人工智能(AI)浪潮席卷全球,主要的科技公司都在大举投资数据中心GPU,这使得市场上最大的数据中心GPU英伟达赚得盆满钵满。虽然高性能的数据中心GPU定价很高,但是使用寿命却不太长,这是由于平常承受着AI推理训练的繁重工作负载,往往比其他组件老化得更快。
据报道,最近有报告称,云服务提供商(CSP)运营的数据中心里,这些GPU在AI工作负载中的利用率约为60%至70%。按照这个利用率,GPU通常只能使用1到2年,即便较为理想的状态,最多也就3年。需要强调的是,现在用于AI和HPC应用的数据中心GPU功耗很高,可达到700W或以上,这对于芯片来说是一个很大的压力,一定程度上也减少了寿命。
如果想要延长数据中心GPU的使用寿命,其中一种方法是降低利用率,然而这也意味着其以更缓慢的速度贬值,并且需要更长的时间才能回本,这对于付出高昂成本的企业来说是不利的。因此大部分云服务提供商衡量了收益以后,最常见的做法仍然是以高利用率运行。
此外,报告还根据数据统计结果指出,数据中心GPU的年化故障率约为9%,3年后大概在27%,一般使用一年后更可能频繁地出现故障。
周三,IP 核心设计公司 Arm 宣布了其面向旗舰智能手机的下一代 CPU 和 GPU 设计:Cortex-X925 CPU 和 Immortalis G925 GPU。它们都是 Cortex-X4 和 Immortalis G720 的直接继任者,目前这些芯片为包括 Vivo X100 和 X100 Pro 以及 Oppo Find X7 在内的旗舰智能手机中的联发科天玑 9300 芯片提供动力。
Arm 更改了其 Cortex-X CPU 设计的命名规则,以突出其所谓的更快的 CPU 设计。它声称 X925 的单核性能比 X4 快 36%(在 Geekbench 中测量)。Arm 表示,它将 AI 工作负载性能提高了 41%,时间到令牌,并且拥有高达 3MB 的私有 L2 缓存。
Cortex-X925 也带来了新一代的 Cortex-A 微架构(“小”核心):Cortex-A725。Arm 公司表示,它的性能效率比上一代的 A720 提高了 35%,而且 Cortex-A520 的能效提高了 15%。
Arm 公司表示,他们最新的 Immortalis G925 GPU 是迄今为止“性能最强、效率最高”的 GPU。与上一代 G720 相比,它在图形应用上的速度快了 37%,在处理复杂物体的光线追踪性能上提升了 52%,在人工智能和机器学习任务上的表现提升了 34%,而且功耗降低了 30%。
Arm将首次提供其新型CPU和GPU设计的“优化布局”,并表示这将使设备制造商更容易将其“投放”或实现到自己的片上系统(SoC)布局中。Arm表示,这种新的物理实现解决方案将帮助其他公司更快地将他们的设备推向市场。
作为对移动游戏开发者的额外奖励,虚幻引擎上的 Lumen 光线追踪现在支持 Immortalis
更快、更便宜!Sam Altman最新访谈透露OpenAI下一步计划,目前GPU短缺是最大瓶颈
5月29日,Humanloop,一家从事机器学习和人工智能的初创公司,其CEO Raza Habib邀请了包括OpenAI CEO Sam Altman在内的20位开发人员共通探讨人工智能的未来,而整个讨论中最重要的主题便是——GPU短缺是最大瓶颈。
Altman表示,目前OpenAI的客户最不满的便是API的可靠性和速度,而这个问题主要就是GPU短缺造成的。
Altman表示,他们的下一步计划就是不断更新GPT-4,让其更便宜,更快,而在发展过程中遇到的最大瓶颈便是GPU短缺,访谈中指出:
长度为32k的上下文窗口还未到推广时机,OpenAI还未能克服技术上的障碍,主要是因为算法的高复杂性。虽然很快就会有10万—100万新的32K上下文窗口token,但提供更多的访问token则需要技术和研究上突破。
微调(Fine-Tuning)API目前也受到GPU可用性的限制。他们还没有使用像Adapters或LoRa这样的高效微调方法,所以微调运行和管理需要高精度的计算。将来会有更好的微调支持。他们甚至可能主持一个社区贡献模型的市场。
OpenAI提供的专用容量服务受到GPU的限制。当用户请求使用专用容量时,OpenAI需要确保有足够的GPU可供分配给用户。然而,由于GPU资源有限,供应有限。要使用这项服务,客户必须愿意预付10万美元的费用。
这场算力革命,让英伟达今年以来一度暴涨170%,跻身万亿市值公司行列,在GPU持续短缺的当下,围绕着英伟达的狂欢还将继续吗?
🗒 标签: #OpenAI #ChatGPT #GPU
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot
5月29日,Humanloop,一家从事机器学习和人工智能的初创公司,其CEO Raza Habib邀请了包括OpenAI CEO Sam Altman在内的20位开发人员共通探讨人工智能的未来,而整个讨论中最重要的主题便是——GPU短缺是最大瓶颈。
Altman表示,目前OpenAI的客户最不满的便是API的可靠性和速度,而这个问题主要就是GPU短缺造成的。
Altman表示,他们的下一步计划就是不断更新GPT-4,让其更便宜,更快,而在发展过程中遇到的最大瓶颈便是GPU短缺,访谈中指出:
长度为32k的上下文窗口还未到推广时机,OpenAI还未能克服技术上的障碍,主要是因为算法的高复杂性。虽然很快就会有10万—100万新的32K上下文窗口token,但提供更多的访问token则需要技术和研究上突破。
微调(Fine-Tuning)API目前也受到GPU可用性的限制。他们还没有使用像Adapters或LoRa这样的高效微调方法,所以微调运行和管理需要高精度的计算。将来会有更好的微调支持。他们甚至可能主持一个社区贡献模型的市场。
OpenAI提供的专用容量服务受到GPU的限制。当用户请求使用专用容量时,OpenAI需要确保有足够的GPU可供分配给用户。然而,由于GPU资源有限,供应有限。要使用这项服务,客户必须愿意预付10万美元的费用。
这场算力革命,让英伟达今年以来一度暴涨170%,跻身万亿市值公司行列,在GPU持续短缺的当下,围绕着英伟达的狂欢还将继续吗?
据称,埃隆·马斯克(Elon Musk)正在Twitter内部推进一个人工智能项目,尽管最近签署了一封公开信,呼吁在全行业范围内停止任何人工智能培训几个月。
两位熟悉该公司的人士表示,这位特斯拉亿万富翁在大约六个月前收购了Twitter,并在那里进行了一些重大改变,最近为该平台购买了大约10,000个图形处理单元。科技公司通常使用GPU来处理大型AI模型,因为新技术需要计算工作量。
知情人士补充说,预计新部门将在Twitter剩余的两个数据中心站点之一运行,最有可能是亚特兰大的站点。
Twitter 还正式从 Alphabet 的人工智能研究子公司 DeepMind 聘请了工程师 Igor Babuschkin 和 Manuel Kroiss。
Via. businessinsider