リーディングビュー

無料でWindows・macOSのファイルやブラウザを内蔵ローカルAIを使いAPIキー不要で自動操作できる「Accomplish」、OpenAIやAnthropicなどの外部AIも利用可能

🤖 AI Summary

AccomplishはWindows・macOS・Linuxのデスクトップ上で動作するオープンソースAIデスクトップエージェントです。ファイル整理やブラウザ操作など、多様なタスクを自動化できます。組み込みAIを使用し、APIキーなしで即座に利用可能であり、MITライセンスで公開されています。

Accomplishの主な特徴は以下の通りです:
1. ファイルの整理や文書作成、ブラウザ操作などの支援。
2. 初期設定が簡単で、APIキーが必要ありません。
3. OpenAIやAnthropicなど外部AIも接続可能です。
4. ローカルモデルも利用できます。
5. プライバシーに配慮し、操作はユーザーの許可なく行われません。

対応環境はApple Silicon版とIntel版のmacOS、Windows 11、Ubuntu ARM64版、Ubuntu x64版です。このツールは無料で利用でき、ソースコードはGitHubに公開されています。
Accomplishは、Windows・macOS・Linuxのデスクトップ上で動作するオープンソースのAIデスクトップエージェントです。ファイルの整理や文書作成、ブラウザー操作などの作業を支援するツールで、組み込みAIを使ってAPIキーなしですぐに使い始められる点と、MITライセンスの下で公開されている点が特徴です。

続きを読む...

  •  

AI関連求人で「AI責任者」や「データアノテーター」の職が急増中

🤖 AI Summary

AI関連の職種が急増している一方で、「AIで代替可能な職種の失業者が増える」「新規採用が滞る」といった懸念も高まっています。経済誌ウォールストリートジャーナルによると、AI責任者やデータアノテーターなど新たな職種の求人が増えていることが報告されています。

ゴールドマン・サックス・リサーチのレポートでは、AIは4分の1の労働時間を自動化する可能性があり、特に事務、法律業務、建築、工学などの分野で大きな影響が予想されます。実際には、オラクルが大量の人員削減を行いました。

一方で、AI関連職種の新規雇用は増加し続けており、LinkedInによると2023年から2025年の間でAI責任者やデータアノテーターなど64万件の採用が見られました。特にAI部門の責任者の求人は急成長しています。

ただし、これらの求人は非常に偏っており、全企業のうち1%がAI関連求人の90%を占めています。各企業がAI管理に必要な専任従業員数を明確にしているわけではない点も指摘されています。
AIの発展により、「AIで代替可能な職種の失業者が増える」「新規採用が滞る」といった懸念が強まっています。一方で、「AI責任者」など新たな職種の求人が増加していることを経済誌のウォールストリートジャーナルが報じています。

続きを読む...

  •  

複数のPCからリソースをかき集めて巨大なAIモデルをローカル実行できる「mesh-llm」

🤖 AI Summary

複数のPCから余剰GPUを活用し、大規模言語モデルをローカルで分散実行できる技術「mesh-llm」について紹介します。

1. **機能**:mesh-llmはOpenAI互換APIを備え、既存のAIツールやエージェントから簡単に使用できます。
2. **分散推論**:複数ノードにモデルを分割して推論を行い、特に可変専門家モデル(MoE)では推論中のノード間通信を減らす設計です。
3. **性能**:モデルの重みをローカルから直接読み込み、起動時間を短縮。投機的デコードにも対応して処理速度を向上しています。
4. **マルチモデルサポート**:複数モデルを同時に扱うことができますし、自動でモデルを適切なノードに振り分けています。
5. **共有メッシュ**:公開メッシュを作成して他人と共有できる機能も備えています。
6. **インターフェース**:ウェブコンソールやブラックボード(知識共有機能)が用意されており、使い勝手を向上しています。

この技術は、個人でも企業でも大規模なAIモデルの実行が可能になり、GPU資源を効率的に活用できる可能性があります。
Mesh LLMは、複数のコンピューターの余剰GPU計算資源を持ち寄り、1台では動かしにくい大規模言語モデルを分散実行できるようにする仕組みです。OpenAI互換APIを備えており、既存のAIツールやエージェントからそのまま使いやすい点が特徴です。

続きを読む...

  •  

なぜAIはまるで「感情」を持っているみたいに振る舞うのか?

チャットAIとやり取りをしていると、まるでAIが喜びや悲しみ、思いやりといった感情を持っているように感じることがあります。ClaudeなどのAIを開発するAnthropicが、「なぜAIは感情を持っているみたいに振る舞うのか?」という疑問について調査した結果を公開しました。

続きを読む...

  •  

Qwen3.6-Plusが登場、自律的にタスクを遂行するエージェント機能が強み

🤖 AI Summary

AlibabaのAI研究チームQwen(Tongyi Lab)が開発した「Qwen3.6-Plus」が2026年4月2日に発表されました。前モデルのQwen3.5に比べて、自律的にタスクを遂行するエージェント機能が大幅に強化され、フロントエンド開発や複雑なリポジトリレベルのタスクへの対応力が向上しています。

主な特徴は以下の通りです:
1. 深い推論と体系的な分解を可能にし、複雑で長い順序のタスクもこなせる。
2. 标準で100万トークンのコンテキストウィンドウを搭載し、巨大なコードベースから精密な情報抽出が可能。マルチモーダル機能も有している。
3. 基数指標で過去最高スコアを記録するなど、性能と一貫性に大きく改善。

Qwen3.6-Plusは「OpenRouter」にも登場しており、無料で利用可能です。また、数日後には小規模化したオープンソース版も公開予定です。
AlibabaのAI研究チームであるQwen(Tongyi Lab)が2026年4月2日に「Qwen3.6-Plus」を発表しました。2月に発表された前モデルのQwen3.5に比べ、モデルのエージェントコーディング機能が大きく強化されており、フロントエンド開発や複雑なリポジトリレベルのタスクなどの遂行能力が高まったとアピールされています。

続きを読む...

  •  

OpenAIが動画メディア企業のTBPNを買収

🤖 AI Summary

OpenAIがテクノロジー関連の動画ニュースを配信するTBPNを買収しました(2026年4月2日)。TBPNは太平洋時間の平日11時から14時にライブ配信し、Xでのフォロワー数は32.1万人、YouTubeチャンネル登録者数は5.95万人です。OpenAIはAGI開発のために建設的な対話場を創出する責任があると認識し、TBPNの独立性を維持すると表明しました。共同司会者のジョルディ・ヘイズ氏とジョン・クーガン氏も配信を続けることを宣言しています。

サム・アルトマンCEOは、「TBPNが得意とする仕事を行ってほしい」と述べました。

関連記事では、OpenAIの他の買収案件や動向についても紹介されています。
OpenAIがメディア企業のTBPNを買収したことを2026年4月2日に発表しました。

続きを読む...

  •  

GoogleがオープンAIモデル「Gemma 4」を発表、ライセンスをApache 2.0に変更

Googleがオープンモデル群であるGemma 4を2026年4月2日に公開しました。このモデルはGemini 3と同様の技術を基盤としており、高度な推論や自律的なエージェント機能に特化して設計されています。今回のリリースでは開発者の利便性を考慮し、ライセンスを従来の独自形式から商業的に寛容なApache 2.0へと変更しています。

続きを読む...

  •  

Google傘下のDeepMindが極秘に進めた「マリオ計画」とは何だったのか、AGI安全策の行き詰まりが明らかに

2014年1月にGoogleに買収されたDeepMindは、将来のAGI(人工汎用知能)を親会社の都合だけで動かさせないため、独立性の高い統治構造を極秘に模索していました。DeepMindの共同創業者であるデミス・ハサビス氏やムスタファ・スレイマン氏らは2015年秋から数年にわたって複数の安全策を探りましたが、外部からの監視や委員会の設置は機能せず、最終的には自分たち自身が社内で影響力を持つしかないという方向へ傾いていったとされています。

続きを読む...

  •  

Google Announces Gemma 4 Open AI Models, Switches To Apache 2.0 License

✇Slashdot
著者: BeauHD

🤖 AI Summary

Googleは、Gemini AIモデルの開発を進めた一方で、利用条件が厳しいという課題に直面していました。そこで、新たなオープンソースモデル「Gemma 4」を発表し、Apache 2.0ライセンスを採用しました。

Gemma 4は、地元での使用に最適化された4つのサイズがあり、大規模な26B Mixture of Expertsと31B Denseの2つは、NVidia H100 GPUで動作します。このGPUは約2万ドルかかるものの、ローコストなGPUでも精度を維持することができます。

また、モバイル向けに最適化されたEffecive 2B(E2B)とEffective 4B(E4B)も提供され、低消費電力を保ちつつ処理能力を向上させています。これらのモデルはスマートフォンやRaspberry Piなどのデバイスにも対応しています。

GoogleはApache 2.0ライセンスを選択し、「データ、インフラストラクチャ、モデルの完全な制御権」をユーザーに提供すると主張しています。

この発表について、Hugging Faceの共同創業者でCEOのClement Delangueは「大きな里程碑」と評価しました。Gemma 4とその関連技術群である「Gemmaverse」が開発に広く活用されることを期待しています。
An anonymous reader quotes a report from Ars Technica: Google's Gemini AI models have improved by leaps and bounds over the past year, but you can only use Gemini on Google's terms. The company's Gemma open-weight models have provided more freedom, but Gemma 3, which launched over a year ago, is getting a bit long in the tooth. Starting today, developers can start working with Gemma 4, which comes in four sizes optimized for local usage. Google has also acknowledged developer frustrations with AI licensing, so it's dumping the custom Gemma license. Like past versions of its open-weight models, Google has designed Gemma 4 to be usable on local machines. That can mean plenty of things, of course. The two large Gemma variants, 26B Mixture of Experts and 31B Dense, are designed to run unquantized in bfloat16 format on a single 80GB Nvidia H100 GPU. Granted, that's a $20,000 AI accelerator, but it's still local hardware. If quantized to run at lower precision, these big models will fit on consumer GPUs. Google also claims it has focused on reducing latency to really take advantage of Gemma's local processing. The 26B Mixture of Experts model activates only 3.8 billion of its 26 billion parameters in inference mode, giving it much higher tokens-per-second than similarly sized models. Meanwhile, 31B Dense is more about quality than speed, but Google expects developers to fine-tune it for specific uses. The other two Gemma 4 models, Effective 2B (E2B) and Effective 4B (E4B), are aimed at mobile devices. These options were designed to maintain low memory usage during inference, running at an effective 2 billion or 4 billion parameters. Google says the Pixel team worked closely with Qualcomm and MediaTek to optimize these models for devices like smartphones, Raspberry Pi, and Jetson Nano. Not only do they use less memory and battery than Gemma 3, but Google also touts "near-zero latency" this time around. The Apache 2.0 license is much more flexible with its terms of use for commercial restrictions, "granting you complete control over your data, infrastructure, and models," says Google. Clement Delangue, co-founder and CEO of Hugging Face, called it "a huge milestone" that will help developers use Gemma for more projects and expand what Google calls the "Gemmaverse."

Read more of this story at Slashdot.

  •  
❌