Googleのジェミニ、動画や画面上のコンテンツを使った質問機能を追加

Googleのジェミニ、動画や画面上のコンテンツを使った質問機能を追加

概要

Googleが人工知能アシスタント「Gemini(ジェミニ)」に新機能を追加し、ユーザーがリアルタイムで動画や画面上のコンテンツを使って質問できるようになりました。この機能拡張は、バルセロナで開催されたMobile World Congress (MWC) 2025で発表され、AIアシスタントの利便性と実用性を大幅に向上させるものとして注目を集めています。

新機能「Screenshare」の詳細

Googleは今回、ジェミニの機能を拡張し、新たに「Screenshare(スクリーンシェア)」機能を導入しました。この機能を使うと、ユーザーはスマートフォンの画面上に表示されているコンテンツをジェミニと共有し、それについて直接質問することができます。
例えば、ウェブサイトを閲覧中に内容について疑問が生じた場合、画面をジェミニと共有して「このページの主要なポイントは何?」と尋ねることができます。また、受信したメッセージや写真、アプリの使い方など、画面上のあらゆる情報についてリアルタイムでAIの支援を得られるようになります。
さらに、動画コンテンツについても同様の機能が提供されます。ユーザーは視聴中の動画について質問したり、特定のシーンについて詳細な説明を求めたりすることが可能になります。

AIアシスタントの進化

この新機能の追加は、GoogleがAIアシスタント市場での競争力を高めるための重要な一歩です。従来のテキストベースやイメージベースの質問に加え、動画や画面全体のコンテキストを理解して回答できるようになることで、ジェミニの実用性は大幅に向上します。
特に注目すべきは、この機能がリアルタイムで動作する点です。ユーザーは情報を別途保存したり、スクリーンショットを撮ったりする必要なく、見ているそのままの状態でAIに質問できます。これにより、情報収集や学習、問題解決のプロセスがよりシームレスになります。

日本市場への影響

日本のスマートフォンユーザーにとって、この機能は特に有用となる可能性があります。例えば、外国語のウェブサイトや動画を閲覧する際に、リアルタイムで内容を理解するための支援ツールとして活用できます。また、テクニカルな情報や複雑な説明が含まれるコンテンツを理解する際の補助としても役立つでしょう。
Googleはこれまでも日本市場向けにジェミニの日本語対応を強化してきましたが、この新機能によってさらに利用シーンが広がることが期待されます。ただし、プライバシーに関する懸念も考えられるため、ユーザーが画面共有する情報の取り扱いについては注意が必要です。

まとめ

Googleのジェミニに追加された動画や画面共有を通じた質問機能は、AIアシスタントの利便性を新たなレベルに引き上げるものです。ユーザーはスマートフォン上のあらゆるコンテンツについて、リアルタイムでAIの支援を受けられるようになります。この機能強化により、情報収集や問題解決がより迅速かつ効率的になり、ジェミニの実用性が大幅に向上することが期待されます。

この記事は、TechCrunch AIの「Google’s Gemini now lets you ask questions using videos and what’s on your screen」(2025年3月3日公開)を翻訳・要約したものです。© 2024 TechCrunch. All rights reserved.


元記事: Google’s Gemini now lets you ask questions using videos and what’s on your screen (TechCrunch AI)

この記事はClaudeを使用して英語記事を翻訳・要約したものです。2025年03月03日翻訳


FFF newsをもっと見る

購読すると最新の投稿がメールで送信されます。

上部へスクロール