2025年のI/O開発者カンファレンスの前夜、AndroidショーでGoogleは、数ヶ月以内にその強力なジェネレーティブAIモデルであるGeminiを、すべてのAndroid Auto対応車両に統合すると発表しました。この機能はその後、Googleのインナーシステムを搭載した車両にも拡張される予定です。Googleによると、この取り組みの目的は「運転体験をより効率的かつ楽しくする」ことであり、カーナビゲーションや車載インタラクションの大きな変革を示唆しています。
Android for Carsの副社長であるパトリック・ブレイディ(Patrick Brady)氏は会議の前から、「Geminiの導入は私たちがこれまでに見た中で最も重要な車載体験の変化の一つになるだろう」と述べています。Geminiは主に次の二つの方法でAndroid Autoに統合されます:
まず、Geminiはさらに強力なスマート音声アシスタントとして登場します。ドライバーと乗客はGeminiに対してより自然な言葉でコミュニケーションを取り、既存のGoogleアシスタント機能であるメッセージの送信や音楽の再生などを実行できます。従来とは異なり、ユーザーは正確な指示を必要とせず、Geminiの自然言語処理能力により、より随意的かつ複雑なリクエストを理解することが可能です。さらに、Geminiはユーザーの好みを記憶し、例えば連絡先の好むメッセージ言語に基づいて適切な翻訳サービスを提供することもできます。Googleは特に、「道中の菜食主義者のメキシコタコスを探す」というような複雑なナビゲーションクエリに対してもGeminiが簡単に応答できることを強調しています。また、Googleのビジネスリストやレビューを活用してより正確な提案を提供することも可能です。
次に、Googleは「Gemini Live」という新しい機能を発表しました。このモードでは、デジタルAIが常に「聞き取り」状態となり、ユーザーが任意のトピックについての完全な対話を始める準備ができています。ブレイディ氏は例として、春休み旅行の計画、十歳児が好きなレシピ、さらにはローマ史などの広範なテーマに関する対話を挙げました。
このような常にオンラインの対話モードは、分散注意を引き起こす可能性があるものの、ブレイディ氏はGeminiの自然言語能力が「認知負荷を軽減」し、特定のタスクをより簡単に遂行できるという点に注目しています。これは現在、ユーザーが物理的な制御に戻るよう求める傾向と対照的ですが、Googleは楽観的な見解を持っています。
現在、Android AutoとGoogle内蔵システムのGeminiはGoogleのクラウド処理能力に依存しています。しかし、Googleは自動車メーカーと協力し、車両エッジでの計算能力を向上させ、パフォーマンスを高め、ネットワーク接続が不安定な走行環境でも信頼性を確保する努力を行っています。
現代の自動車が生み出す豊富なセンサーデータ、例えば車内や車外カメラのデータをGeminiがどのように活用するかについては、ブレイディ氏は「まだ発表されていない」と述べていますが、彼らが積極的に検討している方向であり、今後の「非常に興味深い用途」が存在すると考えています。
情報によると、Android AutoとGoogle内蔵システムのGeminiは、生成型AIモデルがすでにカバーしている国や地域で提供され、40以上の言語に対応します。