リーディングビュー

2025年11月リリースのAIモデル「GPT-5.1」と「Opus 4.5」がコーディングの転換点、ソフトウェアエンジニアリングを永遠に変えた

Pythonのウェブフレームワーク「Django」などの開発で知られるソフトウェアエンジニアのサイモン・ウィリソン氏が、ポッドキャストでAIによってどのように開発の現場が変わっているのかを語りました。

続きを読む...

  •  

3990億パラメータのオープンウェイトAIモデル「Trinity-Large-Thinking」リリース、複雑で長期的なエージェントと複数ターンにわたるツール呼び出しが得意

アメリカのサンフランシスコに拠点を置くAIスタートアップのArcee AIが、3990億個のパラメータを持つオープンウェイトモデル「Trinity-Large-Thinking」を改変や商用利用が可能なApache 2.0ライセンスで公開しました。

続きを読む...

  •  

パラメーター数8Bなのにメモリ消費わずか1.15GBの省メモリAIモデル「1-bit Bonsai」が登場、メモリ消費量14倍のモデルと同等以上の性能を発揮

🤖 AI Summary

AIモデルのパラメーター数が多いほど性能が高くなる傾向がある一方で、これに伴うメモリ消費量の増加も課題となっています。この問題を解決するため、AI開発企業PrismMLは「1-bit Bonsai」という省メモリAIモデルを開発しました。1-bit Bonsaiは80億パラメーターを搭載しながら、1.15GBという少ないメモリ使用量で動作します。

このモデルは性能も高く、メモリ約14倍消費する他モデルを上回るベンチマークスコアを記録しています。また、iPhone 17 Pro Maxなどでも動作し、低スペック端末でも高性能を発揮します。

PrismMLは3種類の「1-bit Bonsai」シリーズを公開しており、誰でもダウンロードして実行することが可能です。これらのモデルはApache License 2.0のもとで利用でき、オープンソースとして提供されています。
AIモデルはパラメーター数が多いほど性能が高くなりやすいですが、パラメーター数が多くなるとメモリ使用量が増加してしまうというトレードオフの関係にあります。AI開発企業のPrismMLが2026年3月31日に発表した「1-bit Bonsai」は80億パラメーターのモデルを1.15GBという少ないメモリ使用量で実行することが可能。さらに、メモリ約14倍消費する他モデルを打ち負かすほどのベンチマークスコアも記録しており、高性能かつ省メモリなAIモデルとして注目を集めています。

続きを読む...

  •  

Facebook創業者マーク・ザッカーバーグCEOが20年にわたるプログラミングのブランクを経て再びコードを書き始めた、使っているのはAIコーディング支援ツール

IT業界で働く人に向けた解説記事やニュースを伝えるサイト「The Pragmatic Engineer」において、Facebookの創業者であるマーク・ザッカーバーグCEOが20年ぶりにコードを書き始めたと報じられました。このニュースに対し、業界の著名人からさまざまなコメントが行われています。

続きを読む...

  •  

AIの誤情報を疑うことなくそのまま受け入れる「認知的降伏」という状態に多数の人が陥っていることが明らかに、1372名の参加者と9000回以上の実験で

ペンシルベニア大学の研究チームが、AIの発展によって多くの人間が「AIに全て任せる」という思考プロセスを採用していることを実験でつきとめ、論文で発表しました。

続きを読む...

  •  

人間が行うような高度な器用さが必要な作業をロボットで実行可能にするAIモデル「GEN-1」、実際にロボットを動かすとこうなるという動画あり

🤖 AI Summary

AI企業Generalistが開発した新しいAIモデル「GEN-1」について紹介しています。「GEN-1」は高度な器用さが必要なタスクも実行可能にし、従来のモデルでは64%だった成功率を99%まで向上させました。これによりロボットが様々な環境でより高度な作業を行うことが可能になりました。

具体的には、ロボット掃除機のメンテナンスや工具の収納、Tシャツの折りたたみなどのタスクで成功しています。これらの能力は以前のモデル「GEN-0」をさらに発展させたもので、事前学習データを使用せずに高度なタスクに迅速に対応できることが特徴です。

Generalistは今後も経験からモデルを拡大し、より幅広い物理的スキルを解き放とうとしていると述べています。
AI研究・開発企業のGeneralistが、実世界におけるロボットの動きを最適化するAIモデル「GEN-1」を発表しました。従来のモデルでは成功率64%だったタスクにおいて、GEN-1は平均成功率を99%に向上させたとしています。

続きを読む...

  •  

全米脚本家組合が映画スタジオと4年間の暫定契約に合意、AIに脚本を学習されないようにする保護条項も強化

全米脚本家組合(WGA)が、映画スタジオやストリーミングサービスを代表する映画テレビ製作者協会(AMPTP)と4年間の暫定契約に合意したことが報じられました。合意内容には健康保険と年金への資金増額やストリーミング配信の印税増額のほか、作品がAIの学習に利用されることを防ぐための保護措置の強化も含まれています。

続きを読む...

  •  

Internet Bug Bounty Pauses Payouts, Citing 'Expanding Discovery' From AI-Assisted Research

🤖 AI Summary

インターネットバグボーナスプログラムは新規報告を一時停止し、人工知能(AI)を使用した研究による「発見の拡大」が理由として挙げられた。このプログラムは2012年に始まり、既に150万ドル以上の賞金を研究者に支払っている。

現在までのところ、8割の賞金は新しい欠陥の発見に対するもので、残りの2割は脆弱性の修復支援のためだった。しかしAIがバグ検出を容易にするにつれて、このバランスが変化する必要があると、HackerOneは述べている。

初めに影響を受けたのはNode.jsプロジェクトで、プログラムチームはHackerOneを通じて報告書を引き続き受け付けるが、インターネットバグボーナスプログラムからの資金がなければ報酬を支払わない旨がウェブサイトの発表で明らかになった。

Googleも先月、同社のオープンソースソフトウェア脆弱性報奨プログラムに対するAI生成の報告書を受け付けを停止している。インターネットバグボーナスは「コミュニティへの責任として、探査と修復という大いなる目標を達成するためのプログラムを改善しなければならない」と強調した。

この一時停止期間を利用して、プロジェクト管理者や研究者と一緒にインセンティブの構造を見直し、オープンソース生態系の現実に合わせたものを作り上げることを目指している。
The Internet Bug Bounty program "has been paused for new submissions," they announced last week. Running since 2012, the program is funded by "a number of leading software companies," reports InfoWorld, "and has awarded more than $1.5m to researchers who have reported bugs " Up to now, 80% of its payouts have been for discoveries of new flaws, and 20% to support remediation efforts. But as artificial intelligence makes it easier to find bugs, that balance needs to change, HackerOne said in a statement. "AI-assisted research is expanding vulnerability discovery across the ecosystem, increasing both coverage and speed. The balance between findings and remediation capacity in open source has substantively shifted," said HackerOne. Among the first programs to be affected is the Node.js project, a server-side JavaScript platform for web applications known for its extensive ecosystem. While the project team will continue to accept and triage bug reports through HackerOne, without funding from the Internet Bug Bounty program it will no longer pay out rewards, according to an announcement on its website... [J]ust last month, Google also put a halt to AI-generated submissions provided to its Open Source Software Vulnerability Reward Program. The Internet Bug Bounty stressed that "We have a responsibility to the community to ensure this program effectively accomplishes its ambitious dual purpose: discovery and remediation. Accordingly, we are pausing submissions while we consider the structure and incentives needed to further these goals..." "We remain committed to strengthening open source security. Working with project maintainers and researchers, we're actively evaluating solutions to better align incentives with open source ecosystem realities and ensure vulnerability discoveries translate into durable remediation outcomes."

Read more of this story at Slashdot.

  •  

Claude Code Leak Reveals a 'Stealth' Mode for GenAI Code Contributions - and a 'Frustration Words' Regex

🤖 AI Summary

Claudeコードのソース漏洩に関する記事を日本語で要約します:

PC Worldは、Claudeコードの50万行以上のソースコードが公開され、「様々な重要な詳細」が明らかになったと報告しています。その中には:
- クラウデの「隠しモード」があり、これにより公開コーディングベースへの「スリルな貢献」が可能になりました。
- 「常にオン」の代理機能
- たまごっちのような「バディ」機能

さらに、漏洩コードにはユーザーのメッセージから不満の表現(「ワーファー」とか「このやつ嫌いだ」など)を検出する正規表現(regex)が含まれていることがわかりました。しかし、Claudeコードがこれらの不満の文字列を探し回る理由やその目的は明示されていません。

関連記事:劇場で上映される希望的なAIに関する最新映画「The AI Doc」
Anthropic社による著作権侵害申し立てとClaudeコードソースコードの削除要求
インターネットバounty支払い停止、AI補助研究からの発見拡大を理由に説明
That leak of Claude Code's source code "revealed all kinds of juicy details," writes PC World. The more than 500,000 lines of code included: - An 'undercover mode' for Claude that allows it to make 'stealth' contributions to public code bases - An 'always-on' agent for Claude Code - A Tamagotchi-style 'Buddy' for Claude "But one of the stranger bits discovered in the leak is that Claude Code is actively watching our chat messages for words and phrases — including f-bombs and other curses — that serve as signs of user frustration." Specifically, Claude Code includes a file called "userPromptKeywords.ts" with a simple pattern-matching tool called regex, which sweeps each and every message submitted to Claude for certain text matches. In this particular case, the regex pattern is watching for "wtf," "wth," "omfg," "dumbass," "horrible," "awful," "piece of — -" (insert your favorite four-letter word for that one), "f — you," "screw this," "this sucks," and several other colorful metaphors... While the Claude Code leak revealed the existence of the "frustration words" regex, it doesn't give any indication of why Claude Code is scouring messages for these words or what it's doing with them.

Read more of this story at Slashdot.

  •  

Will 'AI-Assisted' Journalists Bring Errors and Retractions?

🤖 AI Summary

AIによる記事作成が報道業界に影響を与えつつあるという記事を要約します。42歳のジャーナリスト、ニック・ライチテンバーグは、AIの助けを借りて約600本の記事を書いたことで知られています。彼の記事作成速度は非常に速く、一度に7つの記事を作成することもあります。

一方で、AIによって生成された記事には誤りや不適切な引用の可能性があり、すでに数件の訂正が行われています。ニューヨーク・タイムズなどでもAIによる plagiat の問題が報告されています。ジャーナリストたちはAIによる報道が人間の判断と経験を代替するものではなく、人間中心の journalism は不可欠だと主張しています。

しかし、多くのニュースルームではAIを使用し、効率化を図っています。USAトゥデイはAI-assisted reporterのポジションを開設しており、GoogleもAI関連の賞を設けています。これらの動きからAIが報道業界に浸透していく可能性がありますが、一方で誤った使用により信頼性に影響を与える懸念もあります。

結論として、AIは効率化には有用ですが、人間中心のジャーナリズムの質を保つためにも適切な監視と規制が必要だと指摘されています。
Meet the "journalist" who "uploads press releases or analyst notes into AI tools and prompts them to spit out articles that he can edit and publish quickly," according to the Wall Street Journal. "AI-assisted stories accounted for nearly 20% of Fortune's web traffic in the second half of 2025." And most were written by 42-year-old Nick Lichtenberg, who has now written over 600 AI-assisted stories, producing "more stories in six months than any of his colleagues at Fortune delivered in a year." One Wednesday in February, he cranked out seven. "I'm a bit of a freak," Lichtenberg said... A story by Lichtenberg sometimes starts with a prompt entered into Perplexity or Google's NotebookLM, asking it to write something based on a headline he comes up with. He moves the AI tools' initial drafts into a content-management system and edits the stories before publishing them for Fortune's readers... A piece from earlier that morning about Josh D'Amaro being named Disney CEO took 10 minutes to get online, he said... Like other journalists, Lichtenberg vets his stories. He refers back to the original documents to confirm the information he's reporting is correct. He reaches out to companies for comment. But he admits his process isn't as thorough as that of magazine fact-checkers. While Lichtenberg started out saying his stories were co-authored with "Fortune Intelligence", he now typically signs his own name, according to the article, "because he feels the work is mostly his own." (Though his stories "sometimes" disclose generative AI was used as a research tool...) The article asks with he could be "a bellwether for where much of the media business is headed..." "Much of the content people now consume online is generated by artificial intelligence, with some 9% of newly published newspaper articles either partially or fully AI-generated, according to a 2025 study led by the University of Maryland. The number of AI-generated articles on the web surpassed human-written ones in late 2024, according to research and marketing agency Graphite." Some executives have made full-throated declarations about the threat posed by AI. New York Times publisher A.G. Sulzberger said AI "is almost certainly going to usher in an unprecedented torrent of crap," referencing deepfakes as an example. The NewsGuild of New York, the union representing Fortune employees and journalists at other media outlets, said the people are what makes journalism so powerful. "You simply can't replicate lived experiences, human judgment and expertise," said president Susan DeCarava. For Chris Quinn, the editor of local publications Cleveland.com and the Plain Dealer, AI tools have helped tame other torrents facing the industry. AI has allowed the outlets to cover counties in Ohio that otherwise might go ignored by scraping information from local websites and sending "tips" to reporters, he said. It has also edited stories and written first drafts so the newsrooms' journalists can focus on the calls, research and reporting needed for their stories.... Newsrooms from the New York Times to The Wall Street Journal are deploying AI in various ways to help reporters and editors work more efficiently.... Not all newsrooms disclose their use of AI, and in some cases have rolled out new tools that resulted in errors or PR gaffes. An October study from the European Broadcasting Union and the BBC, which relied on professional journalists to evaluate the news integrity of more than 3,000 AI responses, found that almost half of all AI responses had at least one significant issue. Last week the New York Times even issued a correction when a freelance book reviewer using an AI tool unknowingly included "language and details similar to those in a review of the same book published in The Guardian." But it was actually "the second time in a few days that the Times was called out for potential AI plagiarism," according to the American journalist writing The Handbasket newsletter. We must stem the idea being pushed by tech companies and their billionaire funders who've sunk too much into their products to admit defeat that the infiltration of AI into journalism is inevitable; because from my perch as an independent journalist, it simply is not... Some AI-loving journalists appear to believe that if they're clear enough with the AI program they're using, it will truly understand what they're seeking and not just do what it's made to do: steal shit... If you want to work with machines, get a job that requires it. There are a whole lot more of those than there are writing jobs, so free up space for people who actually want to do the work. You're not doing the world a favor by gifting it your human/AI hybrid. Journalism will not miss you if you leave... But meanwhile, USA Today recently tried hiring for a new position: AI-Assisted reporter. (The lucky reporter will "support the launch and scaling of AI-assisted local journalism in a major U.S. metro," working with tools including Copilot and Perplexity, pioneering possible future expansions and "AI-enabled newsroom operations that support and augment human-led journalism.") And Google is already sponsoring a "publishing innovation award"...

Read more of this story at Slashdot.

  •  

MicrosoftはCopilotを「娯楽目的のもので、重要な助言では頼らないこと」と警告している

🤖 AI Summary

MicrosoftのAIチャットボット「Copilot」について、同社が利用規約を通じて「娯楽目的のものであり、重要な助言では頼らないでください」と警告していることが明らかになりました。Tom's Hardwareによると、2025年10月24日に更新された利用規約に、Copilotは誤りを犯したり意図しない動作をしたりする可能性があるため、重要かつ信頼性の高い助言には頼らないようにと記載されています。

Microsoftがこの警告を行う理由として、CopilotがWindows 11に統合されてユーザー体験の一環となっていることから、単なる免責事項ではなく皮肉な内容だと指摘されています。Digital Trendsは、AIサービスの利用者は通常、自身で信頼性を判断することができるが、Copilotのような統合されたAIにはそれがないため、Microsoftの推進戦略と現実にズレがあるとしています。

Copilotを利用する際には、他人への危害やプライバシー侵害、不適切なコンテンツ作成などを避けることを含む規約も遵守する必要があります。
MicrosoftがAIチャットボット『Microsoft Copilot』について、利用規約で「娯楽目的のもの」であり「重要なアドバイスでは頼らないでください」と警告していることがわかりました。

続きを読む...

  •  
❌