ノーマルビュー

Received — 2026年2月6日 ギズモード・ジャパン

想像が画像になる日。脳とAIがつながる未来

著者:Ena Miura
2026年2月6日 13:00

🤖 AI Summary

**想像が画像になる日:脳とAIがつながる未来(要約)**

- **研究の概要**
- 京都大学のチームが、fMRIで測定した脳内血流パターンをAIに学習させ、被験者が見ている・想像している映像を画像化する技術を開発。
- 2018 年に報告された「脳内イメージを映像化するAI」からの継続的な進化で、単なるモノクロの図形から、人や物体の構造・色・グラデーションまで再現できるようになった。

- **技術的なポイント**
- **データ取得**:fMRI により視覚刺激に対する血流変化を可視化。
- **学習プロセス**:「この脳反応はこういう画像に対応する」というペアを多数与えてディープラーニングを実行。
- **生成結果**:アルファベットや簡単な映像はほぼ認識可能なレベルに到達。人物や物体も輪郭や色調が再現され、被験者ごとの背景色の違いなど個人差も検出できる。

- **現在の限界と課題**
- 完全な写実はまだ不可能で、細部まで思い出す必要がある画像は再現が難しい。
- 被験者間で背景色が変わるなど、認知の個人差が画像に反映される点が課題。

- **将来の応用可能性**
- 思い出やイメージを視覚的に共有できるため、会話や教育、創作活動で「頭の中の映像」を直接伝達できる。
- 医療分野では、意識障害患者の意識内容の把握や、リハビリ時のイメージトレーニングに活用できる可能性。

- **まとめ**
- 脳活動とAIを結びつけた画像生成技術は、当初は粗いモノクロ画像に留まっていたが、近年は高精細・カラー画像の再現へと大きく前進。
- まだ完全な再現には至らないものの、個人の想像や記憶を映像化できることは、コミュニケーションや科学研究に新たな可能性を開く「予言的」な技術と評価されている。
Image:BioRxivこの記事は「ギズモード・タイムマシン」──すこし前の今日って、何があったんだろう?未来から観察してみたら、懐かしさだけでなく、意外な発見だってあるかもしれません。2018年2月、「何を考えているのかな?人間の脳内イメージを映像化するAI」を掲載しました。脳の血流反応をAIに学習させ、見ている光景や想像を画像で再現するという試みです。当時は「なんとなく分かるかも……?」とい

Received — 2026年2月5日 ギズモード・ジャパン

インスタに「文字だけ投稿」ができるようになった日

著者:Ena Miura
2026年2月5日 07:00

🤖 AI Summary

**要約(日本語)**

2018年2月にInstagramに「タイプ」モードが導入され、文字だけの投稿が可能になった。
- **機能概要**:ストーリーズのカメラ画面から「タイプ」を選択し、テキストを入力。テーマや手書き文字、スタンプ、背景色などで装飾でき、作成した画像はそのまま投稿または保存できる。
- **拡張性**:後続のアップデートでフォントや色の細かな調整、GIF・スタンプ貼り付けなどのデコレーションが追加された。
- **意義**:写真が主役のSNSに「文字だけ」の表現手段を提供し、画像加工の敷居を下げたことで、ユーザーが直感的にビジュアルコミュニケーションを楽しめるようになった。著者はこの機能を高校時代のプレゼンスライド作成に活用した経験を語り、SNS史における大きな転換点と位置付けている。

この「タイプ」モードは、エモーショナルなフレーズや豪華なつぶやきを視覚的に表現できる新たなツールとして、現在でも多くのユーザーに活用されている。
Image:ヤマダユウス型この記事は「ギズモード・タイムマシン」──すこし前の今日って、何があったんだろう?未来から観察してみたら、懐かしさだけでなく、意外な発見だってあるかもしれません。2018年2月、「Instagram、テキストだけの投稿が可能な新機能「タイプ」モードを追加」を掲載しました。写真が主役のSNSながら、あえて文字だけでも投稿できるようになり、その後フォントや色の調整も可能に。ま

Received — 2026年2月4日 ギズモード・ジャパン

働くロボットの誕生日、あなたの職場はお祝いしてる?

著者:Ena Miura
2026年2月4日 09:00

🤖 AI Summary

**働くロボット「マーティ」の誕生日パーティ―まとめ(2020年1月25日)**

- **ロボットの概要**
- 米国北東部のスーパーマーケットチェーン「STOP & SHOP」店内で、破損や汚れを検知し店員に英語・スペイン語で報告するマスコット的ロボット「Marty(マーティ)」。
- 1機あたり約380万円、300体以上が全米の店舗で稼働中。

- **誕生日イベント**
- 2020年1月25日、マーティが「1歳」になったことを祝し、選ばれた数店舗で「#martyparty」開催。
- カラリングコーナー、ロボットカラーに合わせた特製ケーキ、グッズ配布など、約4時間にわたる祝賀が実施された。
- 従業員は風船やケーキで装飾し、来店客にも楽しんでもらった様子がSNSに投稿されている。

- **イベント後の様子**
- 翌日(1月26日)にマッシュアブルの記者が取材すると、装飾はそのまま残り、マーティはいつも通り店内を巡回。
- 従業員の関心はイベント終了と同時に薄れ、ロボットは再び業務に戻っていた。

- **示唆する点**
- ロボットが「キャラクター化」されることで、顧客や従業員に親近感を与え、テクノロジーの浸透を促進する効果が見られる。
- 高価な業務ロボットでも、イベント活用やブランディングの一環として「人間味」を演出できる可能性がある。
- しかし、イベント後の関心の低下は、テクノロジー導入の持続的なエンゲージメントが課題であることを示唆している。

**結論**
マーティの誕生日パーティは、ロボットを単なる作業道具ではなく「キャラクター」として扱う試みの好例。顧客体験の向上とブランド訴求に貢献したものの、継続的な関心付けが必要であることが浮き彫りになった。
Image:Stop&Shop/Twitterこの記事は「ギズモード・タイムマシン」──すこし前の今日って、何があったんだろう?未来から観察してみたら、懐かしさだけでなく、意外な発見だってあるかもしれません。2020年2月、「働くロボット、マーティ君。誕生日パーティがよっぽどうれしかったようです」を掲載しました。今の視点から読み返してみると、日本の多くの外食チェーンで導入されている猫をモチーフにし

Received — 2026年2月3日 ギズモード・ジャパン

Apple WatchがiPhoneの“鍵”になった日

著者:Ena Miura
2026年2月3日 14:00

🤖 AI Summary

**Apple WatchがiPhoneの“鍵”になった日 – 要点まとめ(2026年2月3日)**

- **背景**:2021年2月、COVID‑19でマスク着用が常態化し、Face IDが使えずiPhoneのロック解除にストレスが増大した。
- **解決策**:iOS 14.5 と watchOS 7.4 に実装された「Apple Watchでロック解除」機能が登場。マスクをしていることを検知すると、装着中のApple Watchが認証情報を渡し、iPhoneをロック解除できるようになった。
- **利用条件**:
1. iPhone と Apple Watch が近接していること
2. Apple Watch にパスコードが設定され、ロックが解除されていること
- **機能拡張**:同機能は iPhone の再ロックや、Apple Watch から Mac のロック解除にも応用可能。
- **影響**:マスク下でもシームレスに認証できたことで、Face ID の弱点が克服され、Apple Watch のエコシステム価値と販売促進が期待された。
- **後続**:1年後の iOS 15 でマスクや眼鏡越しでも単体の Face ID が改善されたが、デバイス連携による「連携プレー」の重要性を再認識させた出来事として評価されている。

**結論**:Apple Watch が iPhone の「鍵」として機能したことは、マスク時代の認証課題を解決しただけでなく、Apple エコシステムの連携力と将来のデバイス間統合の可能性を示す象徴的な出来事となった。
Image:AkeWa/Shutterstock.comこの記事は「ギズモード・タイムマシン」──すこし前の今日って、何があったんだろう?未来から観察してみたら、懐かしさだけでなく、意外な発見だってあるかもしれません。2021年2月、「超朗報。マスクでもiPhone&AppleWatchでロック解除がもうすぐできるよ!」を掲載しました。コロナ禍でみんなマスク姿の中でも、誰かがiPhoneのロック解

Received — 2026年1月26日 ギズモード・ジャパン

【8年前の答え合わせ】「10年後にはAIでペットと話せる」はどうなった?

著者:Ena Miura
2026年1月26日 10:00

🤖 AI Summary

**要約(日本語)**

2018 年に「10 年後に AI でペットと話せる」ことを予言した記事の結果を、2026 年に振り返ったものです。

- **当初の予測**:AI が動物の鳴き声を「言葉に置き換える」翻訳機能を実装し、犬・猫はもちろん、クジラやイカの声まで理解できるようになると期待された。
- **現在の進展**:実際に注目されているのは、**鳴き声から感情パターンや状態を読み取る**技術。北アリゾナ大学の Con Slobodchikoff 教授らは、プレーリードッグの警戒鳴き声に捕食者種別ごとのパターンがあることを AI で解析し、動物の意図を「言語化」しようと試みている。
- **実用化の方向性**:
- **ペットの感情把握**:鳴き声や行動から喜び・不安・痛みなどを判別し、飼い主がリアルタイムで状態を把握できる。
- **産業応用**:家畜(羊・牛など)の健康モニタリングに応用し、早期病気発見や飼育リスク低減が期待される。
- **課題と見通し**:データ量が不足しているため、完全な「翻訳」にはまだ時間が必要。予測された「10 年以内に犬と話すデバイス」は実用段階には至っていないが、感情解析は着実に進展中で、残り 2 年でどこまで聞き取れるようになるかが注目される。
- **評価**:予言の的中度は★★★★(感情解析は実現)、ロストテクノロジー度は★(完全翻訳は未達)、再評価度は★★★★(当初の期待は変化しつつも価値が高い)。

**結論**
AI による動物の「感情・状態」解析は進んでおり、ペットや家畜とのコミュニケーションが深化しつつある。一方で、言語的な「翻訳」や日常的な会話はまだ先の話で、実用化にはさらにデータ蓄積と研究が必要という状況です。
Image:AnnyStudio/Shutterstockこの記事は「ギズモード・タイムマシン」──すこし前の今日って、何があったんだろう?未来から観察してみたら、懐かしさだけでなく、意外な発見だってあるかもしれません。2018年1月「あと10年でやってくる?AIでペットとコミュニケーションをとれる未来!」を掲載しました。タカラトミーのバウリンガルが頭に浮かびますが、テクノロジーは着々と成長し、今

❌