リーディングビュー

OpenAI To Limit New Model Release On Cybersecurity Fears

✇Slashdot
著者: BeauHD

🤖 AI Summary

OpenAIは、より広範囲な展開が潜在的な危険をもたらす懸念から、新しいセキュリティ製品のリリースを一部のパートナーに限定的に実施すると報告されています。これはAnthropicがMythosモデルやProject Glasswingに似たような制限付きのリリースアプローチを取り、同社は2月に「Trusted Access for Cyber」パイロットプログラムを導入し、GPT-5.3-Codexという最強のサイバーカップabilitiesなモデルを展開した後に実施しました。

セキュリティ会社AisleのCEO Stanislav Fortによると、「新しい悪用ソフトウェアを作成する能力」に対する懸念から新機能の展開を限定するのは「より合理的だ」という意見があります。これはソフトウェアの脆弱性を公開する責任ある情報提供プロセスと似ているというLeeも指摘しています。

関連リンク:中国天津スーパーコンピュータセンターデータ窃取事件、Anthropicが強力なAI「Claude Mythos」を発表、Amazonが競争相手のNvidiaに対抗してTrainium AIチップを第三者にも販売する可能性なども報告されています。
OpenAI is reportedly preparing a new cybersecurity product for a small group of partners, out of concern that a broader rollout could wreak havoc if it were released more widely. If that move sounds familiar, it's because Anthropic took a similar limited-release approach with its Mythos model and Project Glasswing initiative. Axios reports: OpenAI introduced its "Trusted Access for Cyber" pilot program in February after rolling out GPT-5.3-Codex, the company's most cyber-capable reasoning model. Organizations in the invite-only program are given access to "even more cyber capable or permissive models to accelerate legitimate defensive work," according to a blog post. At the time, OpenAI committed $10 million in API credits to participants. [...] Restricting the rollout of a new frontier model makes "more sense" if companies are concerned about models' ability to write new exploits -- rather than about their ability to find bugs in the first place, Stanislav Fort, CEO of security firm Aisle, told Axios. Staggering the release of new AI models looks a lot like how cybersecurity vendors currently handle the disclosure of security flaws in software, Lee added. "It's the same debate we've had for decades around responsible vulnerability disclosure," Lee said.

Read more of this story at Slashdot.

  •  
❌