ノーマルビュー

OpenAI To Limit New Model Release On Cybersecurity Fears

著者: BeauHD
2026年4月10日 05:00

🤖 AI Summary

OpenAIは、広範囲なリリースが大きな危険を引き起こす懸念から、新しいセキュリティ関連製品の開発に着手し、一部のパートナー企業に対する限られた展開を行うことを計画していると伝えられています。これはAnthropicがMythosモデルやProject Glasswingの事業推进方法を模倣したもので、同社は2月に「GPT-5.3-Codex」という最強のセキュリティ機能を持つモデルをリリース後、「Trusted Access for Cyber」パイロットプログラムを導入しました。これは参加企業に対して、合法的な防御作業を加速するためにより高度なAIアクセスを与えるものです。

この限られた展開戦略は、セキュリティ企業がソフトウェアの脆弱性情報を公表する方法に似ているとLeeは述べています。「責任ある脆弱性公表」という問題に関する長い議論と同じものだと言います。Stanislav Fort(Aisle社CEO)は、「モデルが新たな攻撃を書く能力よりも、初期のバグ発見能力に関心がある企業にとっては、新しいAIモデルのリリースを段階的に行う方が意味があります」と述べています。

関連記事:
- 中国天津超級計算機センターからハッカーによって10ペタバイト以上のデータが窃取された
- Anthropicは「Claude Mythos」AIを披露し、大きなセキュリティ影響があると報告されている
- アマゾンは Trainium AIチップの第三者的販売を検討しており、Nvidiaに挑戦しようとしている
OpenAI is reportedly preparing a new cybersecurity product for a small group of partners, out of concern that a broader rollout could wreak havoc if it were released more widely. If that move sounds familiar, it's because Anthropic took a similar limited-release approach with its Mythos model and Project Glasswing initiative. Axios reports: OpenAI introduced its "Trusted Access for Cyber" pilot program in February after rolling out GPT-5.3-Codex, the company's most cyber-capable reasoning model. Organizations in the invite-only program are given access to "even more cyber capable or permissive models to accelerate legitimate defensive work," according to a blog post. At the time, OpenAI committed $10 million in API credits to participants. [...] Restricting the rollout of a new frontier model makes "more sense" if companies are concerned about models' ability to write new exploits -- rather than about their ability to find bugs in the first place, Stanislav Fort, CEO of security firm Aisle, told Axios. Staggering the release of new AI models looks a lot like how cybersecurity vendors currently handle the disclosure of security flaws in software, Lee added. "It's the same debate we've had for decades around responsible vulnerability disclosure," Lee said.

Read more of this story at Slashdot.

❌