Apple Intelligence 漏洞赏金计划邀请研究人员测试其隐私声明

研究人员可以在虚拟机中运行私有云计算的安全分析,并在 GitHub 上评估系统的一些源代码。


苹果正在邀请调查支持更高计算强度的苹果智能请求的私有云计算(PCC)系统。该公司还在扩大其漏洞奖励计划,向发现 PCC 漏洞的人提供最高 1,000,000 美元的奖金。

该公司曾吹嘘有很多 AI 功能(称为 Apple Intelligence)将在设备上运行,而不会离开你的 Mac、iPhone 或其他苹果硬件。但对于更复杂的请求,它会将这些请求发送到由Apple Silicon和新操作系统构建的 PCC 服务器。

其他公司的许多人工智能应用程序也依赖服务器来处理更复杂的请求。不过,用户对这些基于服务器的操作的安全性并没有太多了解。

当然,苹果一直以来都在强调自己对用户隐私的重视,所以如果云服务器设计不当就可能会破坏这一形象。
为了防止这种情况,苹果表示他们设计了 PCC,以确保公司的安全和隐私承诺是可以执行的,并且安全研究人员可以独立验证这些承诺。


对于研究人员,苹果提供:
• 一份安全指南,详细说明了 PCC 的技术细节

• 一个“虚拟研究环境”,让你可以在你的 Mac 上对 PCC 进行安全分析(不过你需要有一台带有苹果芯片和额外 16GB 内存的 Mac,并运行最新的 macOS Sequoia 15.1 开发者预览版)。

• 源代码在 GitHub 上用于“PCC 的某些关键组件,这些组件有助于实现其安全性和隐私要求”


通过漏洞奖励计划,苹果公司将对在几个不同类别中发现的漏洞提供 5 万美元到 100 万美元不等的奖金。苹果还将评估任何可能对 PCC 产生重大影响的安全问题,以确定是否给予奖励。

🗒 标签: #Apple #Intelligence #AI
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot
 
 
Back to Top