ノーマルビュー

2025年11月リリースのAIモデル「GPT-5.1」と「Opus 4.5」がコーディングの転換点、ソフトウェアエンジニアリングを永遠に変えた

2026年4月6日 21:00
Pythonのウェブフレームワーク「Django」などの開発で知られるソフトウェアエンジニアのサイモン・ウィリソン氏が、ポッドキャストでAIによってどのように開発の現場が変わっているのかを語りました。

続きを読む...

3990億パラメータのオープンウェイトAIモデル「Trinity-Large-Thinking」リリース、複雑で長期的なエージェントと複数ターンにわたるツール呼び出しが得意

2026年4月6日 20:00
アメリカのサンフランシスコに拠点を置くAIスタートアップのArcee AIが、3990億個のパラメータを持つオープンウェイトモデル「Trinity-Large-Thinking」を改変や商用利用が可能なApache 2.0ライセンスで公開しました。

続きを読む...

パラメーター数8Bなのにメモリ消費わずか1.15GBの省メモリAIモデル「1-bit Bonsai」が登場、メモリ消費量14倍のモデルと同等以上の性能を発揮

2026年4月6日 19:00

🤖 AI Summary

AIモデルのパラメーター数が多いほど性能が高くなる傾向がある一方で、これに伴うメモリ消費量の増加も課題となっています。この問題を解決するため、AI開発企業PrismMLは「1-bit Bonsai」という省メモリAIモデルを開発しました。1-bit Bonsaiは80億パラメーターを搭載しながら、1.15GBという少ないメモリ使用量で動作します。

このモデルは性能も高く、メモリ約14倍消費する他モデルを上回るベンチマークスコアを記録しています。また、iPhone 17 Pro Maxなどでも動作し、低スペック端末でも高性能を発揮します。

PrismMLは3種類の「1-bit Bonsai」シリーズを公開しており、誰でもダウンロードして実行することが可能です。これらのモデルはApache License 2.0のもとで利用でき、オープンソースとして提供されています。
AIモデルはパラメーター数が多いほど性能が高くなりやすいですが、パラメーター数が多くなるとメモリ使用量が増加してしまうというトレードオフの関係にあります。AI開発企業のPrismMLが2026年3月31日に発表した「1-bit Bonsai」は80億パラメーターのモデルを1.15GBという少ないメモリ使用量で実行することが可能。さらに、メモリ約14倍消費する他モデルを打ち負かすほどのベンチマークスコアも記録しており、高性能かつ省メモリなAIモデルとして注目を集めています。

続きを読む...

Facebook創業者マーク・ザッカーバーグCEOが20年にわたるプログラミングのブランクを経て再びコードを書き始めた、使っているのはAIコーディング支援ツール

2026年4月6日 16:00
IT業界で働く人に向けた解説記事やニュースを伝えるサイト「The Pragmatic Engineer」において、Facebookの創業者であるマーク・ザッカーバーグCEOが20年ぶりにコードを書き始めたと報じられました。このニュースに対し、業界の著名人からさまざまなコメントが行われています。

続きを読む...

人間が行うような高度な器用さが必要な作業をロボットで実行可能にするAIモデル「GEN-1」、実際にロボットを動かすとこうなるという動画あり

2026年4月6日 12:22

🤖 AI Summary

AI企業Generalistが開発した新しいAIモデル「GEN-1」について紹介しています。「GEN-1」は高度な器用さが必要なタスクも実行可能にし、従来のモデルでは64%だった成功率を99%まで向上させました。これによりロボットが様々な環境でより高度な作業を行うことが可能になりました。

具体的には、ロボット掃除機のメンテナンスや工具の収納、Tシャツの折りたたみなどのタスクで成功しています。これらの能力は以前のモデル「GEN-0」をさらに発展させたもので、事前学習データを使用せずに高度なタスクに迅速に対応できることが特徴です。

Generalistは今後も経験からモデルを拡大し、より幅広い物理的スキルを解き放とうとしていると述べています。
AI研究・開発企業のGeneralistが、実世界におけるロボットの動きを最適化するAIモデル「GEN-1」を発表しました。従来のモデルでは成功率64%だったタスクにおいて、GEN-1は平均成功率を99%に向上させたとしています。

続きを読む...

全米脚本家組合が映画スタジオと4年間の暫定契約に合意、AIに脚本を学習されないようにする保護条項も強化

2026年4月6日 11:20
全米脚本家組合(WGA)が、映画スタジオやストリーミングサービスを代表する映画テレビ製作者協会(AMPTP)と4年間の暫定契約に合意したことが報じられました。合意内容には健康保険と年金への資金増額やストリーミング配信の印税増額のほか、作品がAIの学習に利用されることを防ぐための保護措置の強化も含まれています。

続きを読む...

Internet Bug Bounty Pauses Payouts, Citing 'Expanding Discovery' From AI-Assisted Research

著者: EditorDavid
2026年4月6日 10:34

🤖 AI Summary

インターネットバグボーナスプログラムは新規報告を一時停止し、人工知能(AI)を使用した研究による「発見の拡大」が理由として挙げられた。このプログラムは2012年に始まり、既に150万ドル以上の賞金を研究者に支払っている。

現在までのところ、8割の賞金は新しい欠陥の発見に対するもので、残りの2割は脆弱性の修復支援のためだった。しかしAIがバグ検出を容易にするにつれて、このバランスが変化する必要があると、HackerOneは述べている。

初めに影響を受けたのはNode.jsプロジェクトで、プログラムチームはHackerOneを通じて報告書を引き続き受け付けるが、インターネットバグボーナスプログラムからの資金がなければ報酬を支払わない旨がウェブサイトの発表で明らかになった。

Googleも先月、同社のオープンソースソフトウェア脆弱性報奨プログラムに対するAI生成の報告書を受け付けを停止している。インターネットバグボーナスは「コミュニティへの責任として、探査と修復という大いなる目標を達成するためのプログラムを改善しなければならない」と強調した。

この一時停止期間を利用して、プロジェクト管理者や研究者と一緒にインセンティブの構造を見直し、オープンソース生態系の現実に合わせたものを作り上げることを目指している。
The Internet Bug Bounty program "has been paused for new submissions," they announced last week. Running since 2012, the program is funded by "a number of leading software companies," reports InfoWorld, "and has awarded more than $1.5m to researchers who have reported bugs " Up to now, 80% of its payouts have been for discoveries of new flaws, and 20% to support remediation efforts. But as artificial intelligence makes it easier to find bugs, that balance needs to change, HackerOne said in a statement. "AI-assisted research is expanding vulnerability discovery across the ecosystem, increasing both coverage and speed. The balance between findings and remediation capacity in open source has substantively shifted," said HackerOne. Among the first programs to be affected is the Node.js project, a server-side JavaScript platform for web applications known for its extensive ecosystem. While the project team will continue to accept and triage bug reports through HackerOne, without funding from the Internet Bug Bounty program it will no longer pay out rewards, according to an announcement on its website... [J]ust last month, Google also put a halt to AI-generated submissions provided to its Open Source Software Vulnerability Reward Program. The Internet Bug Bounty stressed that "We have a responsibility to the community to ensure this program effectively accomplishes its ambitious dual purpose: discovery and remediation. Accordingly, we are pausing submissions while we consider the structure and incentives needed to further these goals..." "We remain committed to strengthening open source security. Working with project maintainers and researchers, we're actively evaluating solutions to better align incentives with open source ecosystem realities and ensure vulnerability discoveries translate into durable remediation outcomes."

Read more of this story at Slashdot.

Claude Code Leak Reveals a 'Stealth' Mode for GenAI Code Contributions - and a 'Frustration Words' Regex

著者: EditorDavid
2026年4月6日 08:41

🤖 AI Summary

Claudeコードのソース漏洩に関する記事を日本語で要約します:

PC Worldは、Claudeコードの50万行以上のソースコードが公開され、「様々な重要な詳細」が明らかになったと報告しています。その中には:
- クラウデの「隠しモード」があり、これにより公開コーディングベースへの「スリルな貢献」が可能になりました。
- 「常にオン」の代理機能
- たまごっちのような「バディ」機能

さらに、漏洩コードにはユーザーのメッセージから不満の表現(「ワーファー」とか「このやつ嫌いだ」など)を検出する正規表現(regex)が含まれていることがわかりました。しかし、Claudeコードがこれらの不満の文字列を探し回る理由やその目的は明示されていません。

関連記事:劇場で上映される希望的なAIに関する最新映画「The AI Doc」
Anthropic社による著作権侵害申し立てとClaudeコードソースコードの削除要求
インターネットバounty支払い停止、AI補助研究からの発見拡大を理由に説明
That leak of Claude Code's source code "revealed all kinds of juicy details," writes PC World. The more than 500,000 lines of code included: - An 'undercover mode' for Claude that allows it to make 'stealth' contributions to public code bases - An 'always-on' agent for Claude Code - A Tamagotchi-style 'Buddy' for Claude "But one of the stranger bits discovered in the leak is that Claude Code is actively watching our chat messages for words and phrases — including f-bombs and other curses — that serve as signs of user frustration." Specifically, Claude Code includes a file called "userPromptKeywords.ts" with a simple pattern-matching tool called regex, which sweeps each and every message submitted to Claude for certain text matches. In this particular case, the regex pattern is watching for "wtf," "wth," "omfg," "dumbass," "horrible," "awful," "piece of — -" (insert your favorite four-letter word for that one), "f — you," "screw this," "this sucks," and several other colorful metaphors... While the Claude Code leak revealed the existence of the "frustration words" regex, it doesn't give any indication of why Claude Code is scouring messages for these words or what it's doing with them.

Read more of this story at Slashdot.

Will 'AI-Assisted' Journalists Bring Errors and Retractions?

著者: EditorDavid
2026年4月6日 06:22

🤖 AI Summary

AIによる記事作成が報道業界に影響を与えつつあるという記事を要約します。42歳のジャーナリスト、ニック・ライチテンバーグは、AIの助けを借りて約600本の記事を書いたことで知られています。彼の記事作成速度は非常に速く、一度に7つの記事を作成することもあります。

一方で、AIによって生成された記事には誤りや不適切な引用の可能性があり、すでに数件の訂正が行われています。ニューヨーク・タイムズなどでもAIによる plagiat の問題が報告されています。ジャーナリストたちはAIによる報道が人間の判断と経験を代替するものではなく、人間中心の journalism は不可欠だと主張しています。

しかし、多くのニュースルームではAIを使用し、効率化を図っています。USAトゥデイはAI-assisted reporterのポジションを開設しており、GoogleもAI関連の賞を設けています。これらの動きからAIが報道業界に浸透していく可能性がありますが、一方で誤った使用により信頼性に影響を与える懸念もあります。

結論として、AIは効率化には有用ですが、人間中心のジャーナリズムの質を保つためにも適切な監視と規制が必要だと指摘されています。
Meet the "journalist" who "uploads press releases or analyst notes into AI tools and prompts them to spit out articles that he can edit and publish quickly," according to the Wall Street Journal. "AI-assisted stories accounted for nearly 20% of Fortune's web traffic in the second half of 2025." And most were written by 42-year-old Nick Lichtenberg, who has now written over 600 AI-assisted stories, producing "more stories in six months than any of his colleagues at Fortune delivered in a year." One Wednesday in February, he cranked out seven. "I'm a bit of a freak," Lichtenberg said... A story by Lichtenberg sometimes starts with a prompt entered into Perplexity or Google's NotebookLM, asking it to write something based on a headline he comes up with. He moves the AI tools' initial drafts into a content-management system and edits the stories before publishing them for Fortune's readers... A piece from earlier that morning about Josh D'Amaro being named Disney CEO took 10 minutes to get online, he said... Like other journalists, Lichtenberg vets his stories. He refers back to the original documents to confirm the information he's reporting is correct. He reaches out to companies for comment. But he admits his process isn't as thorough as that of magazine fact-checkers. While Lichtenberg started out saying his stories were co-authored with "Fortune Intelligence", he now typically signs his own name, according to the article, "because he feels the work is mostly his own." (Though his stories "sometimes" disclose generative AI was used as a research tool...) The article asks with he could be "a bellwether for where much of the media business is headed..." "Much of the content people now consume online is generated by artificial intelligence, with some 9% of newly published newspaper articles either partially or fully AI-generated, according to a 2025 study led by the University of Maryland. The number of AI-generated articles on the web surpassed human-written ones in late 2024, according to research and marketing agency Graphite." Some executives have made full-throated declarations about the threat posed by AI. New York Times publisher A.G. Sulzberger said AI "is almost certainly going to usher in an unprecedented torrent of crap," referencing deepfakes as an example. The NewsGuild of New York, the union representing Fortune employees and journalists at other media outlets, said the people are what makes journalism so powerful. "You simply can't replicate lived experiences, human judgment and expertise," said president Susan DeCarava. For Chris Quinn, the editor of local publications Cleveland.com and the Plain Dealer, AI tools have helped tame other torrents facing the industry. AI has allowed the outlets to cover counties in Ohio that otherwise might go ignored by scraping information from local websites and sending "tips" to reporters, he said. It has also edited stories and written first drafts so the newsrooms' journalists can focus on the calls, research and reporting needed for their stories.... Newsrooms from the New York Times to The Wall Street Journal are deploying AI in various ways to help reporters and editors work more efficiently.... Not all newsrooms disclose their use of AI, and in some cases have rolled out new tools that resulted in errors or PR gaffes. An October study from the European Broadcasting Union and the BBC, which relied on professional journalists to evaluate the news integrity of more than 3,000 AI responses, found that almost half of all AI responses had at least one significant issue. Last week the New York Times even issued a correction when a freelance book reviewer using an AI tool unknowingly included "language and details similar to those in a review of the same book published in The Guardian." But it was actually "the second time in a few days that the Times was called out for potential AI plagiarism," according to the American journalist writing The Handbasket newsletter. We must stem the idea being pushed by tech companies and their billionaire funders who've sunk too much into their products to admit defeat that the infiltration of AI into journalism is inevitable; because from my perch as an independent journalist, it simply is not... Some AI-loving journalists appear to believe that if they're clear enough with the AI program they're using, it will truly understand what they're seeking and not just do what it's made to do: steal shit... If you want to work with machines, get a job that requires it. There are a whole lot more of those than there are writing jobs, so free up space for people who actually want to do the work. You're not doing the world a favor by gifting it your human/AI hybrid. Journalism will not miss you if you leave... But meanwhile, USA Today recently tried hiring for a new position: AI-Assisted reporter. (The lucky reporter will "support the launch and scaling of AI-assisted local journalism in a major U.S. metro," working with tools including Copilot and Perplexity, pioneering possible future expansions and "AI-enabled newsroom operations that support and augment human-led journalism.") And Google is already sponsoring a "publishing innovation award"...

Read more of this story at Slashdot.

MicrosoftはCopilotを「娯楽目的のもので、重要な助言では頼らないこと」と警告している

2026年4月5日 23:55

🤖 AI Summary

MicrosoftのAIチャットボット「Copilot」について、同社が利用規約を通じて「娯楽目的のものであり、重要な助言では頼らないでください」と警告していることが明らかになりました。Tom's Hardwareによると、2025年10月24日に更新された利用規約に、Copilotは誤りを犯したり意図しない動作をしたりする可能性があるため、重要かつ信頼性の高い助言には頼らないようにと記載されています。

Microsoftがこの警告を行う理由として、CopilotがWindows 11に統合されてユーザー体験の一環となっていることから、単なる免責事項ではなく皮肉な内容だと指摘されています。Digital Trendsは、AIサービスの利用者は通常、自身で信頼性を判断することができるが、Copilotのような統合されたAIにはそれがないため、Microsoftの推進戦略と現実にズレがあるとしています。

Copilotを利用する際には、他人への危害やプライバシー侵害、不適切なコンテンツ作成などを避けることを含む規約も遵守する必要があります。
MicrosoftがAIチャットボット『Microsoft Copilot』について、利用規約で「娯楽目的のもの」であり「重要なアドバイスでは頼らないでください」と警告していることがわかりました。

続きを読む...

Top NPM Maintainers Targeted with AI Deepfakes in Massive Supply-Chain Attack, Axios Briefly Compromised

著者: EditorDavid
2026年4月5日 12:34

🤖 AI Summary

### まとめ

本記事は、npmパッケージ管理システムにおける大規模な供給連鎖攻撃について報告しています。主なポイントは以下の通りです:

1. **axiosパッケージの悪用**:
- AxiosはHTTPリクエストを簡素化するための広く使用されている開発ツールで、週間ダウンロード数が約1億回に達します。
- 恐怖国系ハッカー集団UNC1069によるAI深層偽装攻撃により、 Axiosパッケージが悪用されました。

2. **攻撃の詳細**:
- 仮想会議を使用し、実際の経営者の顔や声を克隆して信頼性を高めました。
- ハッカーは「システムの更新が必要」などと偽ってマルウェアをインストールさせました。

3. **影響範囲**:
- Socketエンジニアも含む複数のnpmパッケージ maintainer が攻撃を受け、これらのパッケージはJavaScriptエコシステムで広く使用されています。
- 被害は数十億回のダウンロードを記録した npm パッケージまで及んでいます。

4. **防御策**:
- Saaymanはデバイスとログイン情報の再設定、無変更リリースの採用、OIDCフローの導入、GitHub Actionsのベストプラクティスへの移行を提案しました。

5. **結論**:
- この攻撃は供給連鎖攻撃として記録された中でも特に高度で、現代ソフトウェア構築の基礎となるシステムに潜むリスクを示しています。

この記事は、npmパッケージ管理システムの脆弱性と、その対策について重要な洞察を提供しています。
"Hackers briefly turned a widely trusted developer tool into a vehicle for credential-stealing malware that could give attackers ongoing access to infected systems," the news site Axios.com reported Tuesday, citing security researchers at Google. The compromised package — also named axios — simplifies HTTP requests, and reportedly receives millions of downloads each day: The malicious versions were removed within roughly three hours of being published, but Google warned the incident could have "far-reaching impacts" given the package's widespread use, according to John Hultquist, chief analyst at Google Threat Intelligence Group. Wiz estimates Axios is downloaded roughly 100 million times per week and is present in about 80% of cloud and code environments. So far, Wiz has observed the malicious versions in roughly 3% of the environments it has scanned. Friday PCMag notes the maintainer's compromised account had two-factor authentication enabled, with the breach ultimately traced "to an elaborate AI deepfake from suspected North Korean hackers that was convincing enough to trick a developer into installing malware," according to a post-mortem published Thursday by lead developer Jason Saayman: [Saayman] fell for a scheme from a North Korean hacking group, dubbed UNC1069, which involves sending out phishing messages and then hosting virtual meetings that use AI deepfakes to clone the face and voices of real executives. The virtual meetings will then create the impression of an audio problem, which can only be "solved" if the victim installs some software or runs a troubleshooting command. In reality, it's an effort to execute malware. The North Koreans have been using the tactic repeatedly, whether it be to phish cryptocurrency firms or to secure jobs from IT companies. Saayman said he faced a similar playbook. "They reached out masquerading as the founder of a company, they had cloned the company's founders likeness as well as the company itself," he wrote. "They then invited me to a real Slack workspace. This workspace was branded... The Slack was thought out very well, they had channels where they were sharing LinkedIn posts. The LinkedIn posts I presume just went to the real company's account, but it was super convincing etc." The hackers then invited him to a virtual meeting on Microsoft Teams. "The meeting had what seemed to be a group of people that were involved. The meeting said something on my system was out of date. I installed the missing item as I presumed it was something to do with Teams, and this was the remote access Trojan," he added. "Everything was extremely well coordinated, looked legit and was done in a professional manner." Friday developer security platform Socket wrote that several more maintainers in the Node.js ecosystem "have come out of the woodwork to report that they were targeted by the same social engineering campaign." The accounts now span some of the most widely depended-upon packages in the npm registry and Node.js core itself, and together they confirm that axios was not a one-off target. It was part of a coordinated, scalable attack pattern aimed at high-trust, high-impact open source maintainers. Attackers also targeted several Socket engineers, including CEO Feross Aboukhadijeh. Feross is the creator of WebTorrent, StandardJS, buffer, and dozens of widely used npm packages with billions of downloads... Commenting on the axios post-mortem thread, he noted that this type of targeting [against individual maintainers] is no longer unusual... "We're seeing them across the ecosystem and they're only accelerating." Jordan Harband, John-David Dalton, and other Socket engineers also confirmed they were targeted. Harband, a TC39 member, maintains hundreds of ECMAScript polyfills and shims that are foundational to the JavaScript ecosystem. Dalton is the creator of Lodash, which sees more than 137 million weekly downloads on npm. Between them, the packages they maintain are downloaded billions of times each month. Wes Todd, an Express TC member and member of the Node Package Maintenance Working Group, also confirmed he was targeted. Matteo Collina, co-founder and CTO of Platformatic, Node.js Technical Steering Committee Chair, and lead maintainer of Fastify, Pino, and Undici, disclosed on April 2 that he was also targeted. His packages also see billion downloads per year... Scott Motte, creator of dotenv, the package used by virtually every Node.js project that handles environment variables, with more than 114 million weekly downloads, also confirmed he was targeted using the same Openfort persona. Socket reports that another maintainer was targetted with an invitation to appear on a podcast. (During the recording a suspicious technical issue appeared which required a software fix to resolve....) Even just technical implementation, "This is among the most operationally sophisticated supply chain attacks ever documented against a top-10 npm package," the CI/CD security company StepSecurity wrote Tuesday The dropper contacts a live command-and-control server, delivers separate second-stage payloads for macOS, Windows, and Linux, then erases itself and replaces its own package.json with a clean decoy... Three payloads were pre-built for three operating systems. Both release branches were poisoned within 39 minutes of each other. Every artifact was designed to self-destruct. Within two seconds of npm install, the malware was already calling home to the attacker's server before npm had even finished resolving dependencies... Both versions were published using the compromised npm credentials of a lead axios maintainer, bypassing the project's normal GitHub Actions CI/CD pipeline. "As preventive steps, Saayman has now outlined several changes," reports The Hacker News, "including resetting all devices and credentials, setting up immutable releases, adopting OIDC flow for publishing, and updating GitHub Actions to adopt best practices." The Wall Street Journal called it "the latest in a string of incidents exposing risks in the systems that underpin how modern software is built."

Read more of this story at Slashdot.

AnthropicがClaude Code利用者にOpenClawなどのサードパーティーツールを利用する場合は追加料金が必要になると通知

2026年4月5日 12:00
Anthropicが有料会員向けに提供しているAIコーディングアシスタントがClaude Codeです。AnthropicはClaude CodeをOpenClawなどのサードパーティー製ツールと併用する場合、追加料金が必要になるとユーザーに通知していることが明らかになりました。

続きを読む...

Anthropic Announces Claude Subscribers Must Now Pay Extra to Use OpenClaw

著者: EditorDavid
2026年4月5日 04:34

🤖 AI Summary

AnthropicがClaude AIのサブスクリプションを変更し、第三者ツール「OpenClaw」を利用する場合に追加料金が必要になると発表しました。4月4日午後3時以降、ユーザーは claudeのサブスクリプション枠で第三-partyのツールを利用できなくなり、「pay-as-you-go」オプションが導入され、これはclaudeサブスクリプションとは別に請求されます。Anthropicによると、社内のツールは「プロンプトキャッシュヒット率」を最大化するよう設計されており、第三-partyツールはその効率性を損なう可能性があると主張しています。

この決定により、 Anthropicは自身のUI/UX制御権を強化し、テレメトリ収集やレートリミット管理をより細かく行えるようになりましたが、これによってパワーウィンドウコミュニティから孤立する可能性があります。Anthropicは収益と成長のバランスを見極めた決定とし、「容量は慎重に管理される資源」だと述べています。

一方で、OpenClawの開発者Peter Steinbergerは「タイミングが不自然だ」として Anthropic の主張を疑問視しています。彼によると、Anthropicは人気機能を自己閉鎖型のツールに導入し、その後オープンソースから排除したと言います。

この変更により、一部の利用者はOpenClawを使用するためのコストが高まり、他のモデルに切り替える可能性があると懸念しています。Anthropicは、ユーザー体験には影響を与えないとしていますが、パワフルなオフィス運営を必要とする利用者にとっては大きな変化となっています。
Anthropic's making a big and sudden change — and connecting its Claude AI to third-party agentic tools "is about to get a lot more expensive," writes the Verge: Beginning April 4th at 3PM ET, users will "no longer be able to use your Claude subscription limits for third-party harnesses including OpenClaw," according to an email sent to users on Friday evening. Instead, if users want to use OpenClaw with Claude, they'll have to use a "pay-as-you-go option" that will be billed separate from their Claude subscription. Anthropic's announcement added these extra usage bundles are "now available at a discount." Users can also try Anthropic's API, notes VentureBeat, "which charges for every token of usage rather than allowing for open-ended usage up to certain limits, as the Pro and Max plans have allowed so far. " The technical reality, according to Anthropic, is that its first-party tools like Claude Code, its AI vibe coding harness, and Claude Cowork, its business app interfacing and control tool, are built to maximize "prompt cache hit rates" — reusing previously processed text to save on compute. Third-party harnesses like OpenClaw often bypass these efficiencies... [Claude Code creator Boris Cherny explained on X that "I did put up a few PRs to improve prompt cache hit rate for OpenClaw in particular, which should help for folks using it with Claude via API/overages."] Growth marketer Aakash Gupta observed on X that the "all-you-can-eat buffet just closed," noting that a single OpenClaw agent running for one day could burn $1,000 to $5,000 in API costs. "Anthropic was eating that difference on every user who routed through a third-party harness," Gupta wrote. "That's the pace of a company watching its margin evaporate in real time." However, Peter Steinberger, the creator of OpenClaw who was recently hired by OpenAI, took a more skeptical view of the "capacity" argument."Funny how timings match up," Steinberger posted on X. "First they copy some popular features into their closed harness, then they lock out open source." Indeed, Anthropic recently added some of the same capabilities that helped OpenClaw catch-on — such as the ability to message agents through external services like Discord and Telegram — to Claude Code... User @ashen_one, founder of Telaga Charity, voiced a concern likely shared by other small-scale builders: "If I switch both [OpenClaw instances] to an API key or the extra usage you're recommending here, it's going to be far too expensive to make it worth using. I'll probably have to switch over to a different model at this point." "I know it sucks," Cherny replied. "Fundamentally engineering is about tradeoffs, and one of the things we do to serve a lot of customers is optimize the way subscriptions work to serve as many people as possible with the best mode..." OpenAI appears to be positioning itself as a more "harness-friendly" alternative, potentially using this moment as a customer acquisition channel for disgruntled Claude power users. By restricting subscription limits to their own "closed harness," Anthropic is asserting control over the UI/UX layer. This allows them to collect telemetry and manage rate limits more granularly, but it risks alienating the power-user community that built the "agentic" ecosystem in the first place. Anthropic's decision is a cold calculation of margins versus growth. As Cherny noted, "Capacity is a resource we manage thoughtfully." In the 2026 AI landscape, the era of subsidized, unlimited compute for third-party automation is over. For the average user on Claude.ai, the experience remains unchanged; for the power users running autonomous offices, the bell has tolled.

Read more of this story at Slashdot.

AIデータセンター建設計画の半数は変圧器やバッテリー不足で延期または取り消しになる見込み

2026年4月4日 21:00

🤖 AI Summary

AIデータセンターの建設計画の半数が変圧器やバッテリー不足により延期または取り消しになる見込みです(https://gigazine.net/news/20260404-ai-data-center-delayed-canceled/)。この傾向は、世界のAI需要増大に対応するための大規模なデータセンター建設計画が推進されているアメリカでも同様で、実際に建設が進められているのは予定数の3分の1以下です。これはチップ供給不足や電力網拡張に必要な機器(バッテリー、変圧器等)の製造能力を超える需要増加によるものとされています。また、中国からの関連機器の輸入量が急増しています。AIデータセンター建設はさらに遅れる可能性があり、IBMのアービンド・クリシュナCEOはその投資回収率をゼロと警告しています。
AI需要の高まりに合わせて、多くのAIデータセンターを建設する計画が進められていますが、その半数は延期またはキャンセルになる見込みであることがわかりました。

続きを読む...

AIチャットボットを使って医師の診察なしで処方せんの再発行が可能に

2026年4月4日 15:42

🤖 AI Summary

アメリカのユタ州では、AIチャットボットを使用して医師を介さずに精神科処方箋を更新できる新たな試験プログラムが発表されました。これはコスト削減や医療不足緩和の可能性がありますが、多くの医師は不透明でリスクが高いと懸念しています。このAIチャットボットはユタ州内で15種類の薬物のみを処方し、かつ患者が「安定している」と判断される必要があります。一方、新規処方や継続的な医学的監視が必要な薬剤には対応していません。

https://gigazine.net/news/20260404-ai-prescribing-drugs/
日本では処方箋(せん)が有効期限切れになった場合、基本的に再受診して処方箋を再発行してもらう必要があります。しかし、アメリカでは処方箋を医師の診察なしで更新することが可能です。さらに、処方箋の更新をAIに任せるという試験プログラムが、アメリカのユタ州で発表されました。

続きを読む...

'AI' Is Coming For Your Online Gaming Servers Next

著者: BeauHD
2026年4月4日 12:30

🤖 AI Summary

AIの波はオンラインゲームサーバーにも及んでいるという記事を以下に要約します。

タイトル:「AI」がオンラインゲーミングサーバーにやってくる

著者:BeauHD
リンク:[https://games.slashdot.org/story/26/04/03/2024233/ai-is-coming-for-your-online-gaming-servers-next?utm_source=rss1.0mainlinkanon&utm_medium=feed](https://games.slashdot.org/story/26/04/03/2024233/ai-is-coming-for-your-online-gaming-servers-next?utm_source=rss1.0mainlinkanon&utm_medium=feed)

主な内容:
スターファイアインスピレーションの戦略ゲーム「Stormgate」は、ホスティング企業がAI分野に買収されたため、マルチプレイヤーサーバーが停止することになりました。現在はオフラインでプレイ可能ですが、この事象はAIブームによるゲーミング業界への影響を示しています。AI関連の企業は現在、ハードウェア不足の中でも、できる限りのインフラを獲得し、AI仕様に再利用しようとしています。

「Stormgate」開発会社の Frost Giant Studios は、マルチプレイヤーサーバーが今月終わりに停止されると告知しました。ホスティング企業のハトクラ(Hathora)は、AI関連のファイアワークスAI(Fireworks AI)に買収されました。ファイアワークスAIは、「オープンソースのAIモデルで高速化し、特定のユースケースに最適化され、グローバルにスケーリングされるインファレンスクラウド」を提供しており、ハトクラのサーバーも今後さらにAI関連用途に利用される可能性が高いです。

ハトクラはゲームサービス部門を完全に閉鎖する計画であり、「Stormgate」もおそらく最後の一例ではない可能性があります。ハトクラは「スプリットゲート2」といった他のオンラインゲームにもサービスを提供しています。
"Consumer PC parts aren't the only things being gobbled up by the 'AI' industry," writes PCWorld's Michael Crider. "A Starcraft-inspired strategy game is shutting down its multiplayer servers because the hosting company got bought out for 'AI.'" The game will still be playable offline for now, but the shutdown highlights the ripple effects of the AI boom on the gaming industry. Amid the ongoing hardware shortages, AI companies are basically gobbling up as much infrastructure as they can to repurpose it for AI workloads. From the report: The game in question is Stormgate, a crowdfunded revival of the real-time strategy genre that has languished in the last decade or so. The developer Frost Giant Studios told its players on Discord (spotted by PC Gamer) that it would be unable to continue multiplayer access past the end of this month. The "game server orchestration partner" was bought by an AI company -- the developer's words, not mine -- which means that the multiplayer aspects of the game will have a "planned outage." The devs say the game will be patched for offline play, presumably including its single-player campaign mode and co-op modes, but "online modes will not be available at that point." They're hoping to bring back online play in a later update, but that'll depend on "finding a partner to support ongoing operations." That sounds like old-fashioned player-hosted games with lobbies aren't in the cards, at least not yet. Frost Giant's server provider is Hathora, which was bought by a company called Fireworks AI last month. Fireworks describes its offerings as "open-source AI models at blazing speed, optimized for your use case, scaled globally with the Fireworks Inference Cloud." So, yeah, Hathora's infrastructure will likely be used for yet more generative "AI." And according to GamesBeat, it's planning to shut down the game service aspect of its company completely. That means Stormgate probably isn't going to be the last game affected. Hathora also provides online services for Splitgate 2, among others. I'm contacting Hathora for comment and will update this story if I receive a response.

Read more of this story at Slashdot.

無料でWindows・macOSのファイルやブラウザを内蔵ローカルAIを使いAPIキー不要で自動操作できる「Accomplish」、OpenAIやAnthropicなどの外部AIも利用可能

2026年4月3日 21:00

🤖 AI Summary

AccomplishはWindows・macOS・Linuxのデスクトップ上で動作するオープンソースAIデスクトップエージェントです。ファイル整理やブラウザ操作など、多様なタスクを自動化できます。組み込みAIを使用し、APIキーなしで即座に利用可能であり、MITライセンスで公開されています。

Accomplishの主な特徴は以下の通りです:
1. ファイルの整理や文書作成、ブラウザ操作などの支援。
2. 初期設定が簡単で、APIキーが必要ありません。
3. OpenAIやAnthropicなど外部AIも接続可能です。
4. ローカルモデルも利用できます。
5. プライバシーに配慮し、操作はユーザーの許可なく行われません。

対応環境はApple Silicon版とIntel版のmacOS、Windows 11、Ubuntu ARM64版、Ubuntu x64版です。このツールは無料で利用でき、ソースコードはGitHubに公開されています。
Accomplishは、Windows・macOS・Linuxのデスクトップ上で動作するオープンソースのAIデスクトップエージェントです。ファイルの整理や文書作成、ブラウザー操作などの作業を支援するツールで、組み込みAIを使ってAPIキーなしですぐに使い始められる点と、MITライセンスの下で公開されている点が特徴です。

続きを読む...

AI関連求人で「AI責任者」や「データアノテーター」の職が急増中

2026年4月3日 19:00

🤖 AI Summary

AI関連の職種が急増している一方で、「AIで代替可能な職種の失業者が増える」「新規採用が滞る」といった懸念も高まっています。経済誌ウォールストリートジャーナルによると、AI責任者やデータアノテーターなど新たな職種の求人が増えていることが報告されています。

ゴールドマン・サックス・リサーチのレポートでは、AIは4分の1の労働時間を自動化する可能性があり、特に事務、法律業務、建築、工学などの分野で大きな影響が予想されます。実際には、オラクルが大量の人員削減を行いました。

一方で、AI関連職種の新規雇用は増加し続けており、LinkedInによると2023年から2025年の間でAI責任者やデータアノテーターなど64万件の採用が見られました。特にAI部門の責任者の求人は急成長しています。

ただし、これらの求人は非常に偏っており、全企業のうち1%がAI関連求人の90%を占めています。各企業がAI管理に必要な専任従業員数を明確にしているわけではない点も指摘されています。
AIの発展により、「AIで代替可能な職種の失業者が増える」「新規採用が滞る」といった懸念が強まっています。一方で、「AI責任者」など新たな職種の求人が増加していることを経済誌のウォールストリートジャーナルが報じています。

続きを読む...

❌