🤖 AI Summary
OpenAIは、より広範囲な展開が危険を及ぼす懸念から、新製品のリリースを一部のパートナーに限定する方針だと報じられています。同社は2月にGPT-5.3-Codexという最も高度なサイバーセキュリティ機能を持つモデルを発表した後、「Trusted Access for Cyber」パイロットプログラムを開始しました。このプログラムは、一部の招待制組織向けに「より高度なセキュリティ機能を持つモデルへのアクセス」を提供し、合法的な防御作業を加速する目的があります。参加企業には100万ドル相当のAPIクレジットが提供されました。
これは Anthropic が Mythos モデルや Project Glasswing 開発で行った限定リリース方針と似ています。セキュリティ企業の CEO Stanislav Fortは、モデルが新しい脆弱性を作り出す能力よりも、既存の脆弱性を見つける能力を懸念している場合、「より合理的なリリース」がより意味があると言っています。
これはソフトウェアの脆弱性開示と同じ議論であり、数十年間続いている問題とされています。
OpenAI is reportedly preparing a new cybersecurity product for a small group of partners, out of concern that a broader rollout could wreak havoc if it were released more widely. If that move sounds familiar, it's because Anthropic took a similar limited-release approach with its Mythos model and Project Glasswing initiative. Axios reports: OpenAI introduced its "Trusted Access for Cyber" pilot program in February after rolling out GPT-5.3-Codex, the company's most cyber-capable reasoning model. Organizations in the invite-only program are given access to "even more cyber capable or permissive models to accelerate legitimate defensive work," according to a blog post. At the time, OpenAI committed $10 million in API credits to participants. [...]
Restricting the rollout of a new frontier model makes "more sense" if companies are concerned about models' ability to write new exploits -- rather than about their ability to find bugs in the first place, Stanislav Fort, CEO of security firm Aisle, told Axios. Staggering the release of new AI models looks a lot like how cybersecurity vendors currently handle the disclosure of security flaws in software, Lee added. "It's the same debate we've had for decades around responsible vulnerability disclosure," Lee said.
Read more of this story at Slashdot.