Google I/O は Google が主催する開発者向けイベントの一つです。Google I/O では、Android スマホの新機能をはじめ、私たちの生活にも関わるさまざまな技術が発表されます。本記事では、Google I/O の概要や、Google I/O 2025 での発表内容の一部を紹介します。
Google I/O とは
Google I/O(グーグル アイオー)は、Google が開催する開発者向けのカンファレンスです。毎年春に、Google が本社を置くアメリカのカリフォルニア州で開催されています。
主に開発者向けの内容ですが、Android スマホや Google 検索など身近なサービスの新機能や、現在開発中の機能も紹介されます。たとえば、2008 年に開催された最初の Google I/O で Android のリリースが発表されたほか、2015 年には Google フォト、2016 年に Google レンズや Google Home など、今では広く利用されているさまざまなサービスやプロダクトなどが発表され、話題を呼びました。
Google I/O では実際に Android スマホなどのデバイスを使用したデモンストレーションも多数行われるので、参加者は新しい機能やデバイスを視覚的に理解し、その進化や可能性を体験することができます。多くのセッションはオンラインでも公開され、開発者だけでなく、一般のテクノロジー愛好家や Android ユーザーの注目を広く集めています。
Google I/O の「I/O」は、Google の社名の由来にもなった、1 の後に 0 が 100 個続く数字を表す数学用語「ゴーゴル」がモチーフです。加えて、「input / output」と「innovation in the open」の、2 つの意味も込められています。
また、Google I/O には、開催前からその盛り上がりを演出する仕掛けがされており、クリアするとイベントの開催日がわかるミニゲームが恒例となっています。毎年テーマの異なるゲームが公開され、2023 年、2024 年、2025 年のものは執筆時現在(2025 年 7 月)まだ遊ぶことができます。
このように Google I/O は、最先端の技術情報と遊び心を兼ね備えたユニークなイベントです。開発者の情報交換や技術研鑽の場であるだけでなく、Android ユーザーにも最新のテクノロジーを垣間見る機会として楽しめるイベントになっています。
※Google I/O で発表される内容は、国や地域を限定して順次展開する機能や、未発売のデバイスなどが含まれます。日本で利用できるようになる時期については、Google Japan Blog などでの発表をご確認ください。
最新の Google I/O の情報をチェックするには、Google I/O の公式ホームページ(英語)をご確認ください。日本で Google I/O を視聴したい場合は、Google の公式 YouTube チャンネルでのライブ配信(英語)で視聴が可能です。
Google I/O 2025 の内容を一部紹介!
ここからは、2025 年 5 月に行われた Google I/O で発表された内容を、Android スマホに関わる話題を中心にまとめて紹介します。
Android と Wear OS がさらに表現力豊かなデザインへ
新しいデザイン システム「Material 3 Expressive」が発表されました。これにより、Android デバイスでより表現力豊かなデザインを利用できるようになります。
これまでの Material You のデザインをベースに、さらに多くのカスタマイズを可能にしたもので、進化したカラーテーマや自動調整されるコンポーネント、強調されたタイポグラフィなどによって、Android スマホがより自分らしい表現で彩られます。
通知をスワイプして消すときや、アプリを終了するときなどのアニメーション効果もアップデートされ、操作がよりなめらかになります。自然で弾むようなアニメーションは、日々の操作にささやかな喜びを添えてくれるでしょう。これらのデザインは、Google のアプリ全体に適用されます。
※これらのデザイン改善は、Android 16 および Wear OS 6 端末向けにパートナー企業と共同で開発しています。2025 年後半に Google Pixel 端末で先行して体験いただける予定です。
「ライブ アップデート」でアプリの進行状況がリアルタイムでわかる
新しい通知機能「ライブ アップデート」は、ライドシェア アプリやフードデリバリー アプリなどの進行状況をリアルタイムで知らせてくれます。
アプリを開かなくてもスマホのロック画面やホーム画面でわかるため、気を逸らされること無く、仕事や勉強に集中できるでしょう。
ライブ アップデートは、Android 16 で順次利用できるようになります。
Google 検索をさらに便利にする「AI Mode」が追加
Google 検索に「AI Mode」が追加されることが発表されました(執筆時点では米国のみで利用可)。ここでは、AI Mode の便利な機能を紹介します。
【リサーチを楽にする「Deep Search」】
Deep Search は、より深く詳細な回答が求められるときに便利な機能です。数百の検索を同時に実行し、情報を横断的に分析して、専門家レベルの引用元を網羅したレポートを、わずか数分で作成してくれます。
【見せて話して質問する「Search ライブ」】
Search ライブ は、Android スマホのカメラを使って、目の前のものについてリアルタイムで会話をして質問できる機能です。Google 検索が情報元へのリンクと共に、アドバイスや、難しい概念の説明をしてくれます。
【面倒なタスクを代行してくれる「エージェント」機能】
エージェント機能とは、チケット購入時などに、ユーザーの代わりに条件に合ったチケット候補の検索や、入力補助などのタスクを行ってくれるものです。
たとえば「今週土曜日の野球の試合で、低層階の手頃な価格のチケットを 2 枚見つけて」と尋ねるだけで、AI Mode が複数のチケット販売サイトを横断的に調査し、リアルタイムの価格と在庫状況を踏まえて、何百もの選択肢からチケットの候補を分析し、面倒なフォームへの入力も代行します。
そして正確にユーザーの条件に合ったチケットの候補を提示してくれるので、ユーザーは自分がもっとも気に入ったサイトを選んで、購入を決めることができます。
【オンライン上で試着もできるAI ショッピング パートナー】
AI Mode は商品の検索から購入検討、エージェントによる Google Pay での購入代行まで、ショッピングのさまざまなシーンでサポートしてくれます。たとえば自分に似合う服を探しているときは、自分の写真を 1 枚アップロードするだけで仮想的に試着することも可能です。これらのステップはすべて、ユーザーの指示と管理のもとで行われるため、安心して利用できます。
このほか、過去の検索履歴や他の Google アプリとの連携により、よりパーソナルな検索結果が表示されるようになります。また、データを視覚化するためのカスタムチャートやグラフも簡単に作成できるなど、新しい Google 検索によって、よりスマートで効率的な体験が可能になるでしょう。
※AI Mode は 2025 年 7 月現在、米国のすべての方に展開を開始しています。
日常的なシーンで役立つ Gemini の新機能とモデルが発表
Google の AI、Gemini にも新しい機能が発表されました。AI アシスタントのように利用したり、より高品質なクリエイティブを生成したりと、さまざまなシーンで活躍するでしょう。
【Gemini に見せて質問できる Gemini Live】
誰かに質問したり、なにかをお願いするとき、相手に見せて説明したいことはありませんか?Gemini Live で、Gemini にスマホの画面を共有したり、レンズで写したりしながら話せるようになりました。たとえば、長文のメールを Gemini に見せて、メールの内容について質問することができます。
【画像での表現の幅をさらに広げる Imagen 4】
最新の画像生成モデルで、すばやく、精度の高い画像の生成が可能です。水滴や動物の毛並みのような描写も、鮮明に表現できます。写真のようにリアルな画像から、絵画のように抽象的な画像まで、幅広いスタイルの画像を生成できます。
テキスト生成能力も向上し、ポスターや漫画など、文字と画像を使用した幅広い表現の作成が可能です。
【音声付きの動画生成を実現した Veo 3】
音声付きの動画生成が可能な初のモデルです。BGM や鳥のさえずりといった効果音、キャラクター同士の対話などの音声が動画とともに生成できます。
【アイデアをすぐ形にできる Canvas】
Canvas は Gemini と対話しながらドキュメントやコード、画像をリアルタイムで作成・編集できるインタラクティブなスペースで、Gemini 2.5 モデルによって、より直感的でパワフルになりました。
Gemini と対話しながらインフォグラフィックを作成できるほか、クイズ、ポッドキャストのような音声概要なども作成できます。また、アイデアを伝えるだけでコードを生成して、簡単なアプリやゲームを制作してくれます。
【自分専用の問題で学習をサポート】
Gemini に学びたい内容のクイズを作成してもらうことで、自分のためにカスタマイズされた学習が可能です。苦手分野を克服するために、フォローアップ クイズの作成も依頼できます。より楽しく、主体的に学習できるでしょう。
加えて、新しい Gemini のサブスクリプション プランの提供も開始されました。詳細は Google AI のプランと機能にてご確認ください。
便利で快適な Android XR 搭載のスマートグラスを開発中
Android XR 搭載のスマートグラスが開発されることが発表されました。Android XR は、ヘッドセットやスマートグラス向けにまもなくリリースされる、AI 搭載オペレーティング システムです。
Android XR 搭載のスマートグラスは一見普通の眼鏡ですが、Gemini が搭載されており、話しかければいつでも AI アシスタントとしてサポートしてくれます。たとえば、目的地への道案内や、話す言語の異なる相手との会話の翻訳などを、リアルタイムでスマートグラス上に表示させることが可能です。
また、アイウェア ブランドとのパートナーシップも発表されました。AI スマートグラスとしての便利さだけでなく、着用時の快適さやスタイリッシュさも兼ね備えたデバイスの開発に役立てられます。
より詳しく知りたい方はこちら
いかがでしたか?ここまで、Google I/O 2025 で発表された内容の一部をピックアップしてご紹介しました。その他の発表内容や詳細を知りたい方は、下のサイトをご覧ください。YouTube の Google 公式チャンネルでは、アーカイブ動画も視聴できます。
- Google I/O 2025(公式サイト / 英語)
- Google I/O '25 Keynote|YouTube(英語)
- Google I/O 2025(Google Japan Blog)
- The Android Show I/O Edition_ 2025 年の Android 最新情報|Android
Google I/O で Android の進化を楽しもう!
Google I/O は Google が毎年春にカリフォルニア州で開催する開発者向け会議です。YouTube でライブ配信されるため、日本でもオンラインで視聴できます。
開発者向けの内容ではありますが、Android の新機能、Android スマホで使える Google の AI 機能などの最新情報や開発中の機能などをいち早く知れる機会でもあります。
Google I/O をチェックして、これからの Android デバイスの未来にワクワクしてみませんか。
※本記事で紹介した内容は、Android のバージョンや機種によって異なる場合があります。
※本記事で紹介した内容は、執筆時(2025 年 7 月)のものです。
2024 年 11 月 13 日
2024 年 11 月 13 日