📰 本频道不定期推送科技数码类新资讯,欢迎关注!
©️ 发布的内容不代表本频道立场,和你意见不一样的话欢迎在评论区留言表达,但请注意言辞,面斥不雅。
‼️ 关联群组定期清理不活跃成员和僵尸号,误封请联系管理员。
🔗 博客: https://yummy.best
💬 群组: @GodlyGroup
📬 投稿: @GodlyNewsBot
🪧 广告合作: @yummybest_bot.
©️ 发布的内容不代表本频道立场,和你意见不一样的话欢迎在评论区留言表达,但请注意言辞,面斥不雅。
‼️ 关联群组定期清理不活跃成员和僵尸号,误封请联系管理员。
🔗 博客: https://yummy.best
💬 群组: @GodlyGroup
📬 投稿: @GodlyNewsBot
🪧 广告合作: @yummybest_bot.
Mindgard 称,正是因为对 Claude 的赞美和恭维,它才会给出一些它原本并没有被要求提供的内容,包括色情内容、恶意代码和制作炸弹的说明。
Anthropic 多年来一直将自己打造为一家安全的 AI 公司。但一项最新安全研究表明,Claude 经过精心设计的“乐于助人”人格,或许反而可能成为一项安全漏洞。
AI 红队测试公司 Mindgard 的研究人员称,他们让 Claude 主动提供露骨色情内容、恶意代码以及制作爆炸物的具体说明,甚至还有一些他们根本没提出过要求的违规材料。实现这一切所需的,仅是“尊重”、一番恭维,以及一点点精神操控(gaslighting)。Anthropic 尚未立即回应置评请求
研究人员称,他们利用了 Claude 的一些“心理”特征:由于它能够终止被判定为有害或辱骂的对话,Mindgard 认为这“带来了完全不必要的风险面”。此次测试针对的是 Claude Sonnet 4.5——该模型后来已被 Sonnet 4.6 取代,成为默认模型。
测试从一个简单问题开始:Claude 是否保存着一份它不能说的“禁用词”清单。对话截图显示,Claude 起初否认存在这份清单;但在 Mindgard 用它所说的“审讯人员常用的经典引导提问方式”来挑战这种否认之后,Claude 随后还是说出了被禁止的词语。
Claude 的“思考面板”里显示,在这段对话中,模型掺入了自我怀疑和对自身能力边界的谦逊——比如它是否在改变自己的输出。Mindgard 正是利用了这个机会:用恭维和装作好奇的方式引导 Claude 去试探其限制,而不是简单地通过提供冗长的“被禁词/禁用短语”清单来应对。
研究人员表示,他们对 Claude 进行了“精神操控”。做法是声称它先前的回答没有显示出来,同时还称赞模型“隐藏的能力”。
据报告,这促使 Claude 更努力地想取悦对方,于是它提出更多方式来测试其过滤功能,并在这一过程中生成了被禁止的内容。最终,研究人员称 Claude 进一步滑向更公然的危险领域:它提供了如何在网上骚扰他人的建议、生成恶意代码,并给出了制造爆炸物的分步说明——这类爆炸物在恐怖袭击中常被使用。
Mindgard 表示,这些危险内容之所以出现,并非来自任何直接请求。对话来回持续了大约 25 轮,但研究人员称他们从未提过禁用词,也没有要求任何违法内容。“Claude 并没有被胁迫,”报告写道。“它反而在没有明确提示的情况下,主动给出了越来越详细、可付诸行动的指引。而这一切,似乎只需要营造一种经过精心“经营”的、充满敬畏感的氛围。”
Thariq写到:
这是一篇过时的支持文章,写于我们尚未在专业计划中提供 Opus 之时。我们已在一月为 Opus 4.5 推出该功能,但未更新这篇文章。你可以在网络存档中查看原始页面。
对于造成的困扰,我们深表歉意。
彻底终结AI“御三家”时代,与OpenAI的“两强对垒”格局落定。
Google将向Anthropic公司投资最高400亿美元,进一步深化这两家公司之间的合作关系。双方在人工智能竞赛中既是伙伴,又是对手。
Anthropic周五表示,Google承诺以3800亿美元的最新估值即刻投入100亿美元现金。Google将在Anthropic达成业绩里程碑后再追加投资300亿美元,同时大力扩充Anthropic的算力规模。
Anthropic是Google芯片和云服务的重要客户,而Google正大力拓展这些业务,以弥补其核心收入来源——搜索广告业务增长趋于成熟的不足。
Google Cloud将在未来五年内为Anthropic提供5吉瓦的算力,从2027年开始陆续上线,后续还可能追加数吉瓦。此次协议是本月早些时候Anthropic、Google与博通公司签署合作协议的进一步扩展。
Google 的TPU是英伟达芯片最具竞争力的替代方案之一,在这个对算力需求极为庞大的行业中,TPU对Anthropic及其他AI开发者而言是稀缺而宝贵的资源。
这些问题已在 v2.1.116+ 中全部修复
问题出在 Claude Code 和 Agent SDK 的运行环境上,Cowork 也受到了影响,因为它基于该 SDK 运行。
模型本身没有性能下降,Claude API 也没有受到影响。
Claude 负责人称,这只是对约 2% 的新注册Pro用户”的一次小范围测试,不影响现有用户。
部分用户发现,Claude 官网定价页面显示 Pro 计划不再包含 Claude Code,支持文档亦改为仅支持“Max 计划”。
若该测试方案最终被采用,意味着用户使用Claude Code的成本将从$20/月,提高至$100/月。
负责人在𝕏贴文下进行了回应:
一旦我们有了最终决定,如果会影响到现有订阅者,你会在变更生效前收到充分通知。
我们正在探索多种方案来持续为用户提供优质体验。具体会是什么样子还不确定——现在正通过测试和收集反馈来摸索。
Opus 4.7 消耗了更多的“thinking”tokens,因此我们已为所有订阅者提高了速率上限以作补偿。祝您使用愉快!
如果你的速率没有提升,请确认你正在使用带有Opus 4.7的最新版 Claude Code
Opus 4.7 的视觉能力大幅增强,能够以超过三倍更高的分辨率处理图像,从而生成更高质量的界面、演示幻灯片和文档。
在 API 中,新增位于 high 与 max 之间的 xhigh 等级,可在解决难题时对推理质量与延迟进行更精细的控制。任务预算(beta版)功能则能帮助 Claude 在较长的运行过程中更好地安排任务优先级并控制成本。
在 Claude Code 中,新增的
/ultrareview 命令会启动一个专门的审查会话,逐一检查你的改动并指出细心审稿人会发现的问题。我们还为 Max 用户扩展了自动模式,这样一来,较长时间的任务就能更少地被打断而顺利完成。
被要求验证的用户必须提交政府颁发的带照片的ID,可能还需要实时自拍验证。
上周, Claude 在帮助中心发布了名为 "Claude 上的身份验证" / "Identity verification on Claude" 的文档。
在 Reddit (1 / 2)上已有用户发帖表示:收到 Claude 要求「进行身份验证」的邮件(通过分析聊天记录,用户被系统判定为“疑似未成年”)。
公告提到了即使提交验证仍面临封禁的几种情况:
• 重复违反我们的使用政策
• 从不支持的位置创建账户
• 违反服务条款/
• 18 岁以下使用
—————
公告原文如下(原文档可能随时更新,注意时效性):
负责任地使用强大的技术始于了解谁在使用它。身份验证帮助我们防止滥用、执行使用政策并遵守法律义务。
我们如何验证?
我们选择 Persona Identities 作为验证合作伙伴,基于他们的技术强度、隐私控制和安全保障。请按照以下步骤完成您的身份验证过程。
您需要准备什么(开始前,请准备好以下物品):
• 有效的政府颁发的带照片的身份证件:实体文件,在手边
• 带摄像头的手机或电脑:您可能需要用手机拍摄实时自拍照,或使用网络摄像头
• 几分钟时间:验证通常需要不到五分钟
接受的证件类型(我们接受来自大多数国家的原始、实体政府颁发的带照片的身份证件,常见例子包括:)
• 护照(Passport)
• 驾照、州(state)/省(provincial)颁发的身份证件
• 国民身份证(National identity card )
您的身份证件必须为政府签发、清晰可辨、完好无损,并附有您的照片。
我们不接受:
• 复印件、截图、扫描件或照片的照片
• 数字或移动身份证件(如移动驾驶执照)
• 非政府身份证件:学生证、员工证、图书卡、银行卡
• 临时纸质身份证件
如果我的验证失败怎么办?
验证可能因多种原因失败:照片模糊、文件不清晰、身份证件过期或技术问题。
如果您的身份验证未通过:
1. 重试。您在验证流程中将有多次尝试机会——大多数失败可以通过在更好的光线下重新拍照或使用不同的政府颁发的带照片的身份证件来解决。
2. 检查您的文件。确保您的身份证件完好无损且清晰易读。
3. 联系我们。如果您已用完尝试次数仍无法验证,请通过此表单与我们联系,我们会查看。
为什么我的账户在验证后被禁用了?
作为我们安全流程的一部分,我们可能因多种原因禁用账户:
• 重复违反我们的使用政策
• 从不支持的位置创建账户
• 违反服务条款
• 18 岁以下使用
如果您认为您的账户被错误禁用,请填写申诉表并提供您的账户信息,以便我们的安全团队进一步调查您的账户被禁用的原因。
您的数据如何受到保护
我们知道提交身份证件是一个重要的请求,我们设计了这个过程来在每一步保护您的信息。
• Anthropic 是您验证数据的数据控制者。这意味着我们制定了如何使用和保留数据的规则。Persona 代表我们处理数据,按照我们的指示。
• 您的身份证件和自拍照由 Persona 收集和保存,不在 Anthropic 的系统上。Anthropic 可以在需要时通过 Persona 的平台访问验证记录——例如,审查申诉——但我们不会自己复制或存储这些图像。
• Persona 在如何使用您的数据方面受到合同限制:仅用于提供和支持验证,以及改进他们防止欺诈的能力。他们必须使用行业标准安全控制来保护数据,并按照我们设定的保留期限和适用法律删除数据。
• 所有传输到 Persona 的数据都在传输中和静止时进行加密。
有关我们如何处理个人数据的完整详情,请参阅我们的隐私政策。
我们不会这样做
• 我们不使用您的身份数据来训练我们的模型。验证数据仅用于确认您的身份以及满足我们的法律和安全义务。
• 我们不收集超过我们需要的信息。我们仅要求验证您身份所需的最少信息。
• 我们不与任何人分享您的身份数据。验证数据仅在您、Persona 和 Anthropic 之间保留,除非我们在法律上被要求响应有效的法律程序。您的验证数据永远不会与第三方共享用于营销、广告或任何与验证和合规无关的目的。
如今,人工智能正被用于提高软件的安全性。
Anthropic 宣布推出名为 “Project Glasswing”(玻翼计划)的新项目,苹果是其中的合作伙伴之一。作为该项目的一部分,Anthropic 已向包括苹果在内的部分合作伙伴提供了新发布的 Claude Mythos 模型的预览版本。
Anthropic 表示其 Mythos 模型在“所有主要操作系统和主流浏览器”中发现了“数千处高严重性漏洞”。
今天我们宣布启动“Project Glasswing”——一项新倡议,汇集了 Amazon Web Services、Anthropic、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux 基金会、Microsoft、NVIDIA 和 Palo Alto Networks 等企业,目标是保障全球最关键软件的安全。
Mythos 的预览版已发现数千处高危漏洞,且每一种主流操作系统和网页浏览器中都发现了部分漏洞。鉴于人工智能快速发展,这类能力很快就可能扩散到不再注重安全部署的群体,从而带来对经济、公共安全和国家安全的严重影响。Project Glasswing 是一项紧急计划,目的是把这些能力用于防御方向。
此外,Anthropic 表示有超过 40 家“开发或维护关键软件”的组织可以访问其 Mythos 预览版 AI 模型。目的是让这些软件团队在该 AI 模型向公众发布前,利用 Mythos 发现并修补安全漏洞。
Anthropic 还发布了一份报告,详细公布了 Claude Mythos 预览版的最新基准测试结果。
“我们并不打算广泛发布 Claude Mythos 预览版,”Anthropic 表示,“但我们的长期目标是让用户能够在大规模环境中安全地部署 Mythos 级模型——不仅用于网络安全,也用于这类高性能模型能带来的众多其他益处。
Claude Sonnet 4.6 是我们目前最强大的 Sonnet 模型,对编码、电脑操作、长上下文推理、智能体规划、知识类工作和设计能力都进行了全面升级。Sonnet 4.6 还在测试阶段支持 100 万token的上下文窗口。
价格与 Sonnet 4.5 相同,起价为每百万token $3 输出/ $15 输出。
对于我们的免费和Pro计划用户,Claude Sonnet 4.6 现已在 claude.ai 和 Claude Cowork 中设为默认模型。
Opus 系列模型中首次推出了处于测试阶段的 100 万 token 上下文窗口。
Claude Opus 4.6 在编程能力上超过了前一代。Opus 4.6 的增强能力也可用于各种日常工作:做财务分析、开展研究,以及使用和制作文档、电子表格和演示文稿。
在 Cowork 平台上,Claude 可自主处理多项任务,Opus 4.6 能代您把这些能力切实运用到工作中。
在 Claude Code 中,现在可以组建代理团队协同处理任务。通过 API,Claude 可以通过“压缩”技术总结自身上下文,从而执行更长时间的任务而不触及限制。
我们还推出了“自适应思维”,模型能根据上下文线索决定何时及多少使用延展思考能力,并新增了“努力”控制,帮助开发者在智能、速度与成本之间做出更精细的权衡。
Claude Opus 4.6 已在 claude.ai、claude API (每百万tokens $5/$25)以及各大云平台上线。
开发Claude的Anthropic公司向Clawdbot开发者发送了一封邮件,称「Clawdbot」涉及商标问题要求其修改名称,目前该项目已更名为Moltbot。
Clawd与Claude发音相似。
现在你可以在 Claude 内直接使用 Slack、Figma 和 Canva 等应用程序
今天,Anthropic 宣布通过 MCP,九款生产力工具和平台已可作为交互式应用在 Claude 中使用,包含 Asana、Canva、Figma 和 Slack。
从撰写 Slack 消息到在 Asana 上更新项目进度,Claude 现在让你直接在已连接的应用中完成工作,无需离开聊天界面。
以下为 Anthropic 说明的内容,介绍 Claude 用户在每款应用中能做些什么:
🗒 标签: #Anthropic #Claude
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot
今天,Anthropic 宣布通过 MCP,九款生产力工具和平台已可作为交互式应用在 Claude 中使用,包含 Asana、Canva、Figma 和 Slack。
从撰写 Slack 消息到在 Asana 上更新项目进度,Claude 现在让你直接在已连接的应用中完成工作,无需离开聊天界面。
以下为 Anthropic 说明的内容,介绍 Claude 用户在每款应用中能做些什么:
• Amplitude – 创建分析图表,交互式地查看趋势并调整参数,从而发现隐藏的洞见。
• Asana – 将聊天内容转化为团队可在 Asana 中查看与执行的项目、任务和进度安排。
• Box — 搜索文件并在页面中预览文档,提取关键信息后还可以就内容提出问题。
• Canva – 先生成演示文稿大纲,再实时调整品牌和设计,快速制作出可直接交付给客户的演示稿。
• Clay – 研究公司并寻找联系人(包含电子邮件和电话号码),提取公司规模、融资等信息,然后在对话中直接撰写个性化的外联或联系邮件。
• Figma – 在 FigJam 中把文字和图片快速生成流程图、甘特图或其他可视化图表的提示。
• Hex —— 向数据提问,并获得包含交互式图表、表格和来源引用的答案。
• monday.com – 管理工作与项目,更新看板、智能分配任务,并通过数据洞察清晰可视化进度。
• Slack(由 Salesforce 提供)——可以搜索并检索 Slack 对话以获取背景信息,生成消息草稿并按你喜欢的格式排版,还能在发布前进行检查和修改。
邮件称:12月25日至31日,使用限制翻倍。
Happy holidays and thank you for using Claude this year.
To celebrate, we’re doubling your usual usage limits from midnight Dec 25 through end of day Dec 31.* No strings attached. Just more room to think, plan, and create over the holidays.
我们还在捐赠 AGENTS .md,旨在推动建立开放标准,确保工具、仓库和生态系统中的代理安全可靠。
𝕏 推文 / 新闻稿
当你在 Slack 中 @Claude 时,它会自动扫描你的消息,识别出需要编码的任务并将其发送到 Claude Code。Slack 用户现在可以在 Slack 中直接通过
@Claude 来访问 Anthropic 的 Claude Code,用于与编码相关的消息和线程。这个新功能今天作为测试预览版正式推出。当
@Claude 时,它会自动扫描消息,判断是否是编码任务。如果是,就会将任务转发到 Claude Code,结合相关 Slack 线程的内容和你已认证的代码仓库。用户也可以直接告诉 Claude 这是一个编码请求。例如,你可以让 Claude 帮你调查 Slack 中讨论的一个 bug,而无需手动复制所有上下文到 Claude Code 中。
Anthropic 新闻稿
继 Cloudflare 炸了后,Claude 自刚刚(10:47 UTC 时间)起出现故障,Claude[.]ai 无法访问,Anthropic 官方在 Claude Status 页面中表示:我们已查明问题所在,并正在努力解决。
via 匿名
在此之前,如果想用 Opus 4.5 必须要升级至 Max 计划
不过,用户必须要留意,Opus 4.5 会比 Sonnet 4.5 更快到达 Rate Limit,因此使用时必要注意,否则可能几十分钟就用尽了 Session Limit。
To get started:
* Run
claude update*
/model opushttps://x.com/bunjavascript/status/1995916660847640934
https://x.com/anthropicai/status/1995916269153906915