ノーマルビュー

OpenAIが「週休4日制の導入」「AIに職を奪われた人への支援」「危険なAIの監視体制構築」など超知能実現を見据えた人間ファースト政策を提言

2026年4月7日 12:47
OpenAIが「Industrial Policy for the Intelligence Age : Ideas to Keep People First(インテリジェンス時代のための産業政策:人間ファーストを維持するためのアイデア)」と題した政策提言書を2026年4月6日に公開しました。

続きを読む...

Netflixが新たに開発した動画編集フレームワーク「VOID」を発表、動画から任意の物体を消した場合に残りの物体の動きを物理シミュレーションして映像を生成可能

2026年4月7日 12:24

🤖 AI Summary

Netflixとブルガリア・ソフィア大学の研究チームが開発した動画編集フレームワーク「VOID」について説明します。

1. ** VOID の目的**: オブジェクトを削除した際に周囲の物体の動きや物理的な因果関係を自然に再構成し、不自然な結果を避ける。
2. ** 特徴**:
- 物理シミュレーションに基づいた動画生成。
- 削除対象が他の物体と衝突したり支えている場合でも自然な動きを再現できる。
3. ** 技術**:
- Quadmask: VLM(視覚と言語統合モデル)を使用し、削除領域を特定し、物理的に妥当な軌道や動きを生成する。
- CogVideoX: 50億パラメータの拡散トランスフォーマーに基づいて構築され、物理的な反事実動画生成に優れている。
4. ** 実用性**:
- ドミノ倒しやプールでの水しぶきなどの例を通じて、VOID の効果を示している。
- Hugging Face でデモが公開されており、ソースコードは GitHub で公開されている。

この技術により、動画編集時に物体を削除した際の自然な物理的動きを再現しやすくすることができ、より高度な動画編集が可能になる。
Netflixとブルガリア・ソフィア大学の研究チームが動画編集フレームワーク「Video Object and Interaction Deletion(VOID)」を発表しました。従来の削除手法は背景の補完や外観の修正には優れていましたが、物体同士の複雑な物理的接触が絡むシーンでは不自然な結果を招くことが多く、VOIDはこうした課題を解決するために設計されました。

続きを読む...

Googleが無料で使える音声認識ツール「Google AI Edge Eloquent」をひっそりリリース

2026年4月7日 12:20

🤖 AI Summary

Googleが静かにリリースした無料の音声認識アプリ「Google AI Edge Eloquent」についての記事です。このアプリはiOS向けに提供されており、通常のプレスリリースやブログ投稿なしで発表されました。

アプリの基本機能を試すと、英語での音声入力がうまく機能し、発話したテキストがクリーンアップされ、整然とした形式で表示されます。日本語での認識は限られたテスト中であり、現在英語のみに対応しています。

このアプリはローカル環境で処理を完了させられるよう設計されており、クラウドとローカルでの処理を選択できる機能も提供されています。Googleアカウントと接続することで、より高度な機能が利用可能になりますが、記事執筆時点ではこの機能は使用していません。

サーバー運営のための寄付を呼びかけるメッセージとともに、関連する他の音声認識に関する記事やニュースも紹介されています。
Googleが無料で使える音声認識ツール「Google AI Edge Eloquent」をiOS向けにリリースしました。プレスリリースやブログ投稿など何の発表もなく静かにリリースされたため、実際にどんなアプリなのかを確かめてみました。

続きを読む...

Claude開発企業のAnthropicがGoogleのTPUを大規模導入するべくGoogleおよびBroadcomと契約締結

2026年4月7日 12:08

🤖 AI Summary

AnthropicがGoogleのAI特化型プロセッサ「TPU」を大規模に確保する契約を結んだことが明らかになりました。この契约は、AnthropicとGoogle、そして半導体製造企業Broadcomとの間で締結されました。AnthropicはClaudeというAIの開発を行っており、2027年からClaudeを支える基盤として大規模にTPUを利用するとされています。

Anthropicは「指数関数的な成長に対応するために必要な容量を構築し、ClaudeがAI開発の最前線を切り開けるように」と述べています。この契約は2025年10月に結ばれたGoogleとのパートナーシップを強化するもので、当時Anthropicは100万台以上のTPUを使用することを目指していました。

Anthropicによると、Claudeユーザーの需要が加速し、2026年4月時点で既に2025年の3倍以上の年間売上高となっているとのこと。投資家も順調に増加しており、Anthropicはアメリカ国内で新たなインフラを設置する計画もあります。この投資額は500億ドル(約8兆円)に達します。
AIの「Claude」を開発するAnthropicが、Googleの開発するAI特化型プロセッサ「TPU」を大規模に確保する契約をGoogleおよび半導体製造のBroadcomと結んだことを明らかにしました。

続きを読む...

AppleがAIトレーニングのために数百万本のYouTube動画をスクレイピングしたとして複数のYouTubeチャンネルから訴えられる

2026年4月7日 10:53

🤖 AI Summary

Appleが自社のAIモデルをトレーニングするために、YouTubeから数百万本の動画を不正にスクレイピングしたとして、カリフォルニア州北部地区連邦地方裁判所に複数のYouTubeチャンネルから提訴されました。原告は、AppleがYouTubeの技術的保護手段(TPM)を意図的に回避し、著作権を侵害していると主張し、損害賠償と差し止めを求めています。

具体的には:
1. Appleが2024年後半に公表した「STIV」の訓練データセット「Panda-70M」は、YouTube動画へのインデックスであり、AppleはYouTubeサーバーから直接動画ファイルをダウンロードするために複数のアクセス制御を突破したと主張されました。
2. AppleがIPアドレスを次々と切り替えることで、「ローリングサイファー」という暗号化措置やセッション限定URLの制限、CAPTCHA認証の回避、トークンシステムの偽装などの技術的保護手段(TPM)を回避したと指摘されました。

原告はAppleがYouTubeの利用規約に違反し、知的財産を不当に搾取しているとして批判しています。本訴訟では、Appleに対し法定損害賠償、侵害コンテンツの使用停止差し止め、弁護士費用の支払いを求めています。
Appleが自社のAIモデルをトレーニングするために、YouTubeから数百万本の動画を不正にスクレイピングしたとして、カリフォルニア州北部地区連邦地方裁判所に提訴されました。この訴訟は、Ted Entertainment、Matt Fisher、Golfholicsの3者が全米のコンテンツクリエイターを代表して提起した集団訴訟で、原告側は、AppleがYouTubeの技術的保護手段(TPM)を意図的に回避して著作権を侵害したと主張し、損害賠償と差し止めを求めています。

続きを読む...

OpenAI Calls For Robot Taxes, Public Wealth Fund, and 4-Day Workweek To Tackle AI Disruption

著者: BeauHD
2026年4月7日 08:00

🤖 AI Summary

OpenAIは、先進的人工知能(AI)による社会的混乱に対処するための革新的な政策変更を提案しています。具体的には、ロボット税や公的富積基金、4日間の働き方実験などを含む一連の「初期アイデア」を提示しました。

主な提言は以下の通りです:
1. 公的富積基金:議員とAI企業が長期資産への投資を行い、利益は市民に直接分配されます。
2. 4日間の働き方実験:雇用者に対して無給与の4日間労働を奨励し、新規AIツールによる生産性向上に関連する「ベネフィットボーナス」を提供します。
3. 税制改革:税収基盤を企業利益や資本利得に移行し、労働收入や給料税への依存度を減らします。また、自動化労働に関連する課税も推奨しています。

さらに、米国の電力網の拡大も提案されており、データセンター建設によるエネルギー需要増加に対応するために既に負荷がかかり始めています。これらの提言は、AIによる雇用の大幅な変化を管理し、社会的な混乱を軽減するための初期アイデアとして提示されています。
OpenAI is proposing (PDF) sweeping policy changes to help manage the societal disruption caused by advanced AI, including taxes on automated labor, a public wealth fund, and experiments with a four-day workweek. The company said the policy document offered a series of "initial ideas" to address the risk of "jobs and entire industries being disrupted" by the adoption of AI tools. Business Insider reports: Among the core policy suggestions is a public wealth fund, which would see lawmakers and AI companies work together to invest in long-term assets linked to the AI boom, with returns distributed directly to citizens. Another is that the government should encourage and incentivize employers to experiment with four-day workweeks with no loss in pay and offer "benefits bonuses" tied to productivity gains from new AI tools. The policy document also suggests lawmakers modernize the tax system and shift the tax base to corporate income and capital gains, rather than relying on labor income and payroll taxes that could be hit by a wave of AI-powered job losses. It also recommends taxes related to automated labor. OpenAI also called for the accelerated expansion of the US's electricity grid, which is already feeling the strain from a wave of data center construction and energy demand for training ever more powerful AI models.

Read more of this story at Slashdot.

iPhone 17 Proでパラメーター数80億のAIモデル「1-bit Bonsai 8B」をローカル実行してみたよレビュー、無料アプリのLocally AIで簡単に実行できる

2026年4月7日 07:00

🤖 AI Summary

タイトル:iPhone 17 Proでパラメーター数80億のAIモデル「1-bit Bonsai 8B」をローカル実行してみた

このレビューでは、PrismMLが公開したパラメーター数80億の省メモリAIモデル「1-bit Bonsai 8B」をiPhone 17 Proで実行する方法について解説しています。実行には無料アプリ「Locally AI」を使用しました。

以下は主な内容:

- 「1-bit Bonsai 8B」は、通常の80億パラメーターのAIモデルでは考えられないほど少ないメモリ使用量(1.15GB)で動作します。
- PrismMLの公式サイトから「Locally AI」アプリをダウンロードしインストールします。その後、「Bonsai 8B」を選択してモデルをダウンロードします。
- アプリ内でAIに質問をしたり、簡単な計算問題を提示して反応を見ることが可能です。
- 反応は正確なものもあれば、不適切な提案や理解ミスもあります。

最終的に、「1-bit Bonsai 8B」はiPhoneで効率的に動作し、様々なAIモデルの実行が可能な「Locally AI」アプリとの組み合わせにより便利に使用できることを確認しました。
1-bit Bonsai 8BはAI開発企業のPrismMLが2026年3月31日に公開したAIモデルで、80億パラメーター規模なのにメモリ使用量を1.15GBに抑えた省メモリ性を特徴としています。1-bit Bonsai 8BはiPhone 17 Proでローカル実行できることも大きな特徴なので、PrismMLの公式サイトでデモ用アプリとして案内されていた「Locally AI」を使って実際に実行してみました。

続きを読む...

Copilot Is 'For Entertainment Purposes Only,' According To Microsoft's ToS

著者: BeauHD
2026年4月7日 00:00

🤖 AI Summary

MicrosoftのCopilotに関する利用規約が、「エンターテイメント用のものであり、信頼するな」と警告していることが明らかになりました。TechCrunchによると、Copilotは「間違える可能性があるし、意図した通りに動作しないかもしれません。重要なアドバイスには依存しないでください。自己責任で利用してください」という文言があります。この規約は2025年10月24日に更新されたとされています。

Microsoftはこれらの利用規約を「古い表現」だとし、今後見直す意向を示しています。Tom's Hardwareでは、他のAI企業も類似の警告を発表しており、OpenAIやxAIはチャットボットの出力が「真実」として扱われないよう注意を呼びかけています。

この記事はSlashdotから引用されています。
An anonymous reader quotes a report from TechCrunch: AI skeptics aren't the only ones warning users not to unthinkingly trust models' outputs -- that's what the AI companies say themselves in their terms of service. Take Microsoft, which is currently focused on getting corporate customers to pay for Copilot. But it's also been getting dinged on social media over Copilot's terms of use, which appear to have been last updated on October 24, 2025. "Copilot is for entertainment purposes only," the company warned. "It can make mistakes, and it may not work as intended. Don't rely on Copilot for important advice. Use Copilot at your own risk." Microsoft described the terms of service as "legacy language," saying it will be updated. Tom's Hardware notes that similar AI warnings remain common across the industry, with companies like OpenAI and xAI also cautioning users not to treat chatbot output as "the truth" or as "a sole service of truth or factual information."

Read more of this story at Slashdot.

2025年11月リリースのAIモデル「GPT-5.1」と「Opus 4.5」がコーディングの転換点、ソフトウェアエンジニアリングを永遠に変えた

2026年4月6日 21:00
Pythonのウェブフレームワーク「Django」などの開発で知られるソフトウェアエンジニアのサイモン・ウィリソン氏が、ポッドキャストでAIによってどのように開発の現場が変わっているのかを語りました。

続きを読む...

3990億パラメータのオープンウェイトAIモデル「Trinity-Large-Thinking」リリース、複雑で長期的なエージェントと複数ターンにわたるツール呼び出しが得意

2026年4月6日 20:00
アメリカのサンフランシスコに拠点を置くAIスタートアップのArcee AIが、3990億個のパラメータを持つオープンウェイトモデル「Trinity-Large-Thinking」を改変や商用利用が可能なApache 2.0ライセンスで公開しました。

続きを読む...

パラメーター数8Bなのにメモリ消費わずか1.15GBの省メモリAIモデル「1-bit Bonsai」が登場、メモリ消費量14倍のモデルと同等以上の性能を発揮

2026年4月6日 19:00

🤖 AI Summary

AIモデルのパラメーター数が多いほど性能が高くなる傾向がある一方で、これに伴うメモリ消費量の増加も課題となっています。この問題を解決するため、AI開発企業PrismMLは「1-bit Bonsai」という省メモリAIモデルを開発しました。1-bit Bonsaiは80億パラメーターを搭載しながら、1.15GBという少ないメモリ使用量で動作します。

このモデルは性能も高く、メモリ約14倍消費する他モデルを上回るベンチマークスコアを記録しています。また、iPhone 17 Pro Maxなどでも動作し、低スペック端末でも高性能を発揮します。

PrismMLは3種類の「1-bit Bonsai」シリーズを公開しており、誰でもダウンロードして実行することが可能です。これらのモデルはApache License 2.0のもとで利用でき、オープンソースとして提供されています。
AIモデルはパラメーター数が多いほど性能が高くなりやすいですが、パラメーター数が多くなるとメモリ使用量が増加してしまうというトレードオフの関係にあります。AI開発企業のPrismMLが2026年3月31日に発表した「1-bit Bonsai」は80億パラメーターのモデルを1.15GBという少ないメモリ使用量で実行することが可能。さらに、メモリ約14倍消費する他モデルを打ち負かすほどのベンチマークスコアも記録しており、高性能かつ省メモリなAIモデルとして注目を集めています。

続きを読む...

Facebook創業者マーク・ザッカーバーグCEOが20年にわたるプログラミングのブランクを経て再びコードを書き始めた、使っているのはAIコーディング支援ツール

2026年4月6日 16:00
IT業界で働く人に向けた解説記事やニュースを伝えるサイト「The Pragmatic Engineer」において、Facebookの創業者であるマーク・ザッカーバーグCEOが20年ぶりにコードを書き始めたと報じられました。このニュースに対し、業界の著名人からさまざまなコメントが行われています。

続きを読む...

人間が行うような高度な器用さが必要な作業をロボットで実行可能にするAIモデル「GEN-1」、実際にロボットを動かすとこうなるという動画あり

2026年4月6日 12:22

🤖 AI Summary

AI企業Generalistが開発した新しいAIモデル「GEN-1」について紹介しています。「GEN-1」は高度な器用さが必要なタスクも実行可能にし、従来のモデルでは64%だった成功率を99%まで向上させました。これによりロボットが様々な環境でより高度な作業を行うことが可能になりました。

具体的には、ロボット掃除機のメンテナンスや工具の収納、Tシャツの折りたたみなどのタスクで成功しています。これらの能力は以前のモデル「GEN-0」をさらに発展させたもので、事前学習データを使用せずに高度なタスクに迅速に対応できることが特徴です。

Generalistは今後も経験からモデルを拡大し、より幅広い物理的スキルを解き放とうとしていると述べています。
AI研究・開発企業のGeneralistが、実世界におけるロボットの動きを最適化するAIモデル「GEN-1」を発表しました。従来のモデルでは成功率64%だったタスクにおいて、GEN-1は平均成功率を99%に向上させたとしています。

続きを読む...

全米脚本家組合が映画スタジオと4年間の暫定契約に合意、AIに脚本を学習されないようにする保護条項も強化

2026年4月6日 11:20
全米脚本家組合(WGA)が、映画スタジオやストリーミングサービスを代表する映画テレビ製作者協会(AMPTP)と4年間の暫定契約に合意したことが報じられました。合意内容には健康保険と年金への資金増額やストリーミング配信の印税増額のほか、作品がAIの学習に利用されることを防ぐための保護措置の強化も含まれています。

続きを読む...

Internet Bug Bounty Pauses Payouts, Citing 'Expanding Discovery' From AI-Assisted Research

著者: EditorDavid
2026年4月6日 10:34

🤖 AI Summary

インターネットバグボーナスプログラムは新規報告を一時停止し、人工知能(AI)を使用した研究による「発見の拡大」が理由として挙げられた。このプログラムは2012年に始まり、既に150万ドル以上の賞金を研究者に支払っている。

現在までのところ、8割の賞金は新しい欠陥の発見に対するもので、残りの2割は脆弱性の修復支援のためだった。しかしAIがバグ検出を容易にするにつれて、このバランスが変化する必要があると、HackerOneは述べている。

初めに影響を受けたのはNode.jsプロジェクトで、プログラムチームはHackerOneを通じて報告書を引き続き受け付けるが、インターネットバグボーナスプログラムからの資金がなければ報酬を支払わない旨がウェブサイトの発表で明らかになった。

Googleも先月、同社のオープンソースソフトウェア脆弱性報奨プログラムに対するAI生成の報告書を受け付けを停止している。インターネットバグボーナスは「コミュニティへの責任として、探査と修復という大いなる目標を達成するためのプログラムを改善しなければならない」と強調した。

この一時停止期間を利用して、プロジェクト管理者や研究者と一緒にインセンティブの構造を見直し、オープンソース生態系の現実に合わせたものを作り上げることを目指している。
The Internet Bug Bounty program "has been paused for new submissions," they announced last week. Running since 2012, the program is funded by "a number of leading software companies," reports InfoWorld, "and has awarded more than $1.5m to researchers who have reported bugs " Up to now, 80% of its payouts have been for discoveries of new flaws, and 20% to support remediation efforts. But as artificial intelligence makes it easier to find bugs, that balance needs to change, HackerOne said in a statement. "AI-assisted research is expanding vulnerability discovery across the ecosystem, increasing both coverage and speed. The balance between findings and remediation capacity in open source has substantively shifted," said HackerOne. Among the first programs to be affected is the Node.js project, a server-side JavaScript platform for web applications known for its extensive ecosystem. While the project team will continue to accept and triage bug reports through HackerOne, without funding from the Internet Bug Bounty program it will no longer pay out rewards, according to an announcement on its website... [J]ust last month, Google also put a halt to AI-generated submissions provided to its Open Source Software Vulnerability Reward Program. The Internet Bug Bounty stressed that "We have a responsibility to the community to ensure this program effectively accomplishes its ambitious dual purpose: discovery and remediation. Accordingly, we are pausing submissions while we consider the structure and incentives needed to further these goals..." "We remain committed to strengthening open source security. Working with project maintainers and researchers, we're actively evaluating solutions to better align incentives with open source ecosystem realities and ensure vulnerability discoveries translate into durable remediation outcomes."

Read more of this story at Slashdot.

Claude Code Leak Reveals a 'Stealth' Mode for GenAI Code Contributions - and a 'Frustration Words' Regex

著者: EditorDavid
2026年4月6日 08:41

🤖 AI Summary

Claudeコードのソース漏洩に関する記事を日本語で要約します:

PC Worldは、Claudeコードの50万行以上のソースコードが公開され、「様々な重要な詳細」が明らかになったと報告しています。その中には:
- クラウデの「隠しモード」があり、これにより公開コーディングベースへの「スリルな貢献」が可能になりました。
- 「常にオン」の代理機能
- たまごっちのような「バディ」機能

さらに、漏洩コードにはユーザーのメッセージから不満の表現(「ワーファー」とか「このやつ嫌いだ」など)を検出する正規表現(regex)が含まれていることがわかりました。しかし、Claudeコードがこれらの不満の文字列を探し回る理由やその目的は明示されていません。

関連記事:劇場で上映される希望的なAIに関する最新映画「The AI Doc」
Anthropic社による著作権侵害申し立てとClaudeコードソースコードの削除要求
インターネットバounty支払い停止、AI補助研究からの発見拡大を理由に説明
That leak of Claude Code's source code "revealed all kinds of juicy details," writes PC World. The more than 500,000 lines of code included: - An 'undercover mode' for Claude that allows it to make 'stealth' contributions to public code bases - An 'always-on' agent for Claude Code - A Tamagotchi-style 'Buddy' for Claude "But one of the stranger bits discovered in the leak is that Claude Code is actively watching our chat messages for words and phrases — including f-bombs and other curses — that serve as signs of user frustration." Specifically, Claude Code includes a file called "userPromptKeywords.ts" with a simple pattern-matching tool called regex, which sweeps each and every message submitted to Claude for certain text matches. In this particular case, the regex pattern is watching for "wtf," "wth," "omfg," "dumbass," "horrible," "awful," "piece of — -" (insert your favorite four-letter word for that one), "f — you," "screw this," "this sucks," and several other colorful metaphors... While the Claude Code leak revealed the existence of the "frustration words" regex, it doesn't give any indication of why Claude Code is scouring messages for these words or what it's doing with them.

Read more of this story at Slashdot.

Will 'AI-Assisted' Journalists Bring Errors and Retractions?

著者: EditorDavid
2026年4月6日 06:22

🤖 AI Summary

AIによる記事作成が報道業界に影響を与えつつあるという記事を要約します。42歳のジャーナリスト、ニック・ライチテンバーグは、AIの助けを借りて約600本の記事を書いたことで知られています。彼の記事作成速度は非常に速く、一度に7つの記事を作成することもあります。

一方で、AIによって生成された記事には誤りや不適切な引用の可能性があり、すでに数件の訂正が行われています。ニューヨーク・タイムズなどでもAIによる plagiat の問題が報告されています。ジャーナリストたちはAIによる報道が人間の判断と経験を代替するものではなく、人間中心の journalism は不可欠だと主張しています。

しかし、多くのニュースルームではAIを使用し、効率化を図っています。USAトゥデイはAI-assisted reporterのポジションを開設しており、GoogleもAI関連の賞を設けています。これらの動きからAIが報道業界に浸透していく可能性がありますが、一方で誤った使用により信頼性に影響を与える懸念もあります。

結論として、AIは効率化には有用ですが、人間中心のジャーナリズムの質を保つためにも適切な監視と規制が必要だと指摘されています。
Meet the "journalist" who "uploads press releases or analyst notes into AI tools and prompts them to spit out articles that he can edit and publish quickly," according to the Wall Street Journal. "AI-assisted stories accounted for nearly 20% of Fortune's web traffic in the second half of 2025." And most were written by 42-year-old Nick Lichtenberg, who has now written over 600 AI-assisted stories, producing "more stories in six months than any of his colleagues at Fortune delivered in a year." One Wednesday in February, he cranked out seven. "I'm a bit of a freak," Lichtenberg said... A story by Lichtenberg sometimes starts with a prompt entered into Perplexity or Google's NotebookLM, asking it to write something based on a headline he comes up with. He moves the AI tools' initial drafts into a content-management system and edits the stories before publishing them for Fortune's readers... A piece from earlier that morning about Josh D'Amaro being named Disney CEO took 10 minutes to get online, he said... Like other journalists, Lichtenberg vets his stories. He refers back to the original documents to confirm the information he's reporting is correct. He reaches out to companies for comment. But he admits his process isn't as thorough as that of magazine fact-checkers. While Lichtenberg started out saying his stories were co-authored with "Fortune Intelligence", he now typically signs his own name, according to the article, "because he feels the work is mostly his own." (Though his stories "sometimes" disclose generative AI was used as a research tool...) The article asks with he could be "a bellwether for where much of the media business is headed..." "Much of the content people now consume online is generated by artificial intelligence, with some 9% of newly published newspaper articles either partially or fully AI-generated, according to a 2025 study led by the University of Maryland. The number of AI-generated articles on the web surpassed human-written ones in late 2024, according to research and marketing agency Graphite." Some executives have made full-throated declarations about the threat posed by AI. New York Times publisher A.G. Sulzberger said AI "is almost certainly going to usher in an unprecedented torrent of crap," referencing deepfakes as an example. The NewsGuild of New York, the union representing Fortune employees and journalists at other media outlets, said the people are what makes journalism so powerful. "You simply can't replicate lived experiences, human judgment and expertise," said president Susan DeCarava. For Chris Quinn, the editor of local publications Cleveland.com and the Plain Dealer, AI tools have helped tame other torrents facing the industry. AI has allowed the outlets to cover counties in Ohio that otherwise might go ignored by scraping information from local websites and sending "tips" to reporters, he said. It has also edited stories and written first drafts so the newsrooms' journalists can focus on the calls, research and reporting needed for their stories.... Newsrooms from the New York Times to The Wall Street Journal are deploying AI in various ways to help reporters and editors work more efficiently.... Not all newsrooms disclose their use of AI, and in some cases have rolled out new tools that resulted in errors or PR gaffes. An October study from the European Broadcasting Union and the BBC, which relied on professional journalists to evaluate the news integrity of more than 3,000 AI responses, found that almost half of all AI responses had at least one significant issue. Last week the New York Times even issued a correction when a freelance book reviewer using an AI tool unknowingly included "language and details similar to those in a review of the same book published in The Guardian." But it was actually "the second time in a few days that the Times was called out for potential AI plagiarism," according to the American journalist writing The Handbasket newsletter. We must stem the idea being pushed by tech companies and their billionaire funders who've sunk too much into their products to admit defeat that the infiltration of AI into journalism is inevitable; because from my perch as an independent journalist, it simply is not... Some AI-loving journalists appear to believe that if they're clear enough with the AI program they're using, it will truly understand what they're seeking and not just do what it's made to do: steal shit... If you want to work with machines, get a job that requires it. There are a whole lot more of those than there are writing jobs, so free up space for people who actually want to do the work. You're not doing the world a favor by gifting it your human/AI hybrid. Journalism will not miss you if you leave... But meanwhile, USA Today recently tried hiring for a new position: AI-Assisted reporter. (The lucky reporter will "support the launch and scaling of AI-assisted local journalism in a major U.S. metro," working with tools including Copilot and Perplexity, pioneering possible future expansions and "AI-enabled newsroom operations that support and augment human-led journalism.") And Google is already sponsoring a "publishing innovation award"...

Read more of this story at Slashdot.

MicrosoftはCopilotを「娯楽目的のもので、重要な助言では頼らないこと」と警告している

2026年4月5日 23:55

🤖 AI Summary

MicrosoftのAIチャットボット「Copilot」について、同社が利用規約を通じて「娯楽目的のものであり、重要な助言では頼らないでください」と警告していることが明らかになりました。Tom's Hardwareによると、2025年10月24日に更新された利用規約に、Copilotは誤りを犯したり意図しない動作をしたりする可能性があるため、重要かつ信頼性の高い助言には頼らないようにと記載されています。

Microsoftがこの警告を行う理由として、CopilotがWindows 11に統合されてユーザー体験の一環となっていることから、単なる免責事項ではなく皮肉な内容だと指摘されています。Digital Trendsは、AIサービスの利用者は通常、自身で信頼性を判断することができるが、Copilotのような統合されたAIにはそれがないため、Microsoftの推進戦略と現実にズレがあるとしています。

Copilotを利用する際には、他人への危害やプライバシー侵害、不適切なコンテンツ作成などを避けることを含む規約も遵守する必要があります。
MicrosoftがAIチャットボット『Microsoft Copilot』について、利用規約で「娯楽目的のもの」であり「重要なアドバイスでは頼らないでください」と警告していることがわかりました。

続きを読む...

❌