Google I/O 2026 AI新機能まとめ|注目発表5選
2026年5月12日、Googleは「The Android Show: I/O Edition」で10以上のAI関連新機能を発表した。メインキーノート(5月19日)を控えたこの前哨戦で、Androidスマートフォンが「AIエージェント端末」に変わる方針が明確になった。
Gemini Intelligenceと名付けられた新AIレイヤー、自然言語でウィジェットを生成する「Vibe-coded Widgets」、ウェブ操作を自動化するChrome Auto-browse——どれも開発者の仕事と働き方に直結する。この記事では、Android ShowとI/O 2026の発表からAI開発者・エンジニアが押さえるべき5つの注目ポイントを整理する。
目次
Google I/O 2026の全体像—5日間で2つのイベント
今年のGoogle I/Oは2段構成になっている。5月12日のAndroid Show: I/O Editionが「ハードウェアとOS」の発表、5月19〜20日のメインキーノートが「モデルとプラットフォーム」の発表という棲み分けだ。
| イベント | 日程 | 主な発表内容 |
|---|---|---|
| Android Show: I/O Edition | 5月12日 | Gemini Intelligence、Vibe-coded Widgets、Googlebooks、Android Auto |
| Google I/O メインキーノート | 5月19〜20日 | Gemini 4(噂)、Android 17、Firebase Studio、開発者向けAPI |
Android Showは消費者向けの機能デモが中心だった。だが裏側ではAPIが動いている。Gemini 3.1 Pro Previewの一般公開、Interactions APIの破壊的変更(移行期限6月8日)、Computer Useツールのサポート開始——メインキーノートを待たなくていい。
要点
Android Showの発表は「消費者向け」に見えるが、Gemini Intelligence・Auto-browse・Vibe-coded Widgetsのいずれも裏にはGemini APIの新機能がある。開発者としてはAPI側の変更を先に押さえておくべきだ。
注目発表① Gemini Intelligence—AIエージェントがAndroid標準に
Gemini Intelligenceは、GoogleがAndroidに組み込む新しいAIレイヤーの総称だ。スマホに常駐する「専属秘書」に近い。従来のGoogleアシスタントとの違いは明確で、単発の質問応答ではなく「アプリを横断するマルチステップ操作」をこなす。
たとえばイベントのチラシを撮影してGeminiに渡すと、画像認識でイベント情報を抽出→Expediaで検索→カレンダーに登録→同行者にメッセージ送信、という一連の操作をユーザーの承認ひとつで完走する。単発の質疑応答ではなく、複数アプリを横断するエージェント動作が標準機能になった。
主要な新機能一覧
アプリ横断エージェント
写真・メール・カレンダー・地図を跨いでタスクを自動実行。ユーザーは最初の指示と最終承認だけ。
Chrome Auto-browse
Geminiがブラウザを操作してチケット予約や商品比較を代行。実験的機能として先行提供。
スマートフォーム入力
住所・決済情報の自動補完が文脈を理解。同じフォームでも状況に応じて入力値を変える。
Gboard Rambler
音声入力のメモ書きを自動整形。句読点だけでなく、話の構造ごと直してくれる。
Chrome Auto-browseの実力と限界
Auto-browseの仕組みを見ると、AnthropicやMicrosoft Copilotが先行していた「Computer Use」の流れに近い。ブラウザ上でDOMを解析し、クリック・入力・スクロールをGeminiが判断して実行する。
現時点での制約は3つある。
- 決済を伴う操作は必ずユーザー承認を挟む(Googleの安全ポリシー)
- CAPTCHA認証が入るサイトでは止まる
- 対応ブラウザはChrome for Androidのみ。デスクトップ版は5月19日の発表待ち
つまりほぼ全ての決済サイトで詰まる。「ブラウザ自動化」と呼ぶには正直まだ遠い。
それでもGoogle I/O 2026でこの機能がOS標準として発表された事実は見逃せない。AIエージェントのコンセプトが研究段階から一般消費者の手元に降りてきた転換点だ。
注目発表② Gemini 3.1 Pro Preview—開発者向け最新モデル
Android Showの裏で、Gemini APIが動いた。GoogleはGemini 3.1 Pro Previewを一般公開し、AI Studio・Vertex AI・Gemini CLI・Android Studioから接続できるようにした。
既存のGemini 3.1 Proとの主な違いを整理した。
| 項目 | Gemini 3.1 Pro | 3.1 Pro Preview(5月更新) |
|---|---|---|
| 推論性能 | 高(複雑な合成・説明タスク向き) | さらに向上(ベンチマーク上昇) |
| Computer Use | 非対応 | 対応(Preview) |
| ビルトインツール + Function Calling | どちらか一方 | 同時利用可能 |
| 利用環境 | AI Studio, Vertex AI | + Gemini CLI, Android Studio, Code Assist |
Interactions APIの破壊的変更に注意
見落としがちだが影響が大きいのが、Interactions APIの破壊的変更だ。Python SDK 1.x系・JavaScript SDK 1.x系を使っているプロジェクトは、旧スキーマの廃止期限が2026年6月8日に設定されている。移行ガイドはGoogle AI for Developersの公式ドキュメントに掲載済み。
移行期限に注意
Gemini API旧SDK(Python 1.x / JS 1.x)は2026年6月8日に廃止。プロダクション環境で使っている場合は今すぐ移行作業を開始すべきだ。
Gemini CLI v0.30.0の注目機能
Gemini CLI v0.30.0が出た。動的システムインストラクション、SessionContextによるSDKツール呼び出し、カスタムSkills対応を追加している。Claude CodeのCLAUDE.mdに相当する仕組みだ。Gemini CLI側にも「プロジェクトの歩き方」を定義できるファイルが載った。
# Gemini CLI v0.30.0 のインストール・更新
npm install -g @anthropic-ai/gemini-cli@latest
# カスタムSkillを読み込んで起動
gemini --skill ./my-skill.md
# 3.1 Pro Preview モデルを指定
gemini --model gemini-3.1-pro-preview
実験的なブラウザエージェント機能も追加されている。ウェブページとの対話をCLIから実行でき、Auto-browseのデスクトップ版にあたる。
MCP対応が静かに進行中
GoogleがMCPを採用した。Anthropicが提唱し、今はLinux Foundation AAIF(Agentic AI Foundation)が管理するこのプロトコルを、Gemini 3系のAPIにMCPとして組み込んだ。一言で言えば、Claude Codeのために作られたツール接続の仕組みがGeminiでも動く。開発者は1つのMCPサーバーをClaude CodeにもGemini CLIにも接続できる。
APIレイヤーの変更を押さえたところで、今度はAndroid AIの表層——ユーザーが直接触る部分に目を移す。
注目発表③ Vibe-coded Widgets—自然言語でUI生成
「Create My Widget」と呼ばれるこの機能は、ユーザーが自然言語で「天気と今日の予定を並べたウィジェットがほしい」と入力するだけでカスタムウィジェットを生成する。2026年夏にSamsung GalaxyとGoogle Pixelから先行提供。
開発者として注目すべきは「バイブコーディング」がOSレベルに降りてきた事実だ。技術的にはGeminiがHTML/CSS/JSベースのウィジェットコードを自動生成し、Androidのウィジェットランタイムで描画する仕組みになっている。
開発者への示唆
ウィジェットのカスタム生成がOSに組み込まれると、サードパーティのウィジェットアプリ市場は縮小する可能性がある。一方で、Geminiが生成したウィジェットから自社APIを呼び出す「AI連携SDK」は新しい開発領域になりうる。
従来のウィジェット開発との比較
従来のAndroidウィジェット
- Kotlin/Javaで実装
- RemoteViews API利用
- デザイン変更にビルドが必要
- Play Store審査を経て配布
Vibe-coded Widget
- 自然言語で指示
- Geminiがコード自動生成
- リアルタイムでプレビュー・修正
- デバイス内で即座に利用可能
Googleのデモ動画で確認できたウィジェットはシンプルな2カラムレイアウト止まりで、複雑なグリッドやアニメーションには手が届いていない。それでもプロが1〜2時間かけて書く程度の実装を5秒でたたき出す。プロトタイプ用途なら今すぐ使える水準だ。
注目発表④ Firebase Studio—エージェント型開発環境
Firebase Studioのエージェント型アップグレードは、Android Showではなく5月19日のメインキーノートで正式発表と見られているが、先行情報がすでに開発者コミュニティに流れている。マルチファイルの自律編集、テスト実行、デプロイまでをFirebase Studio内でAIが完結させる構想だ。
Antigravity vs Gemini CLI—使い分けの整理
Googleの開発者向けAIツールは現在3つの系統に分かれている。混乱しやすいので整理する。
| ツール | 形態 | 得意領域 | 競合 |
|---|---|---|---|
| Antigravity | ブラウザIDE | フルスタック開発・プロトタイピング | Replit, Bolt |
| Gemini CLI | ターミナル | 既存リポジトリの操作・自動化 | Claude Code, Codex CLI |
| Gemini Code Assist | IDE拡張 | VS Code / IntelliJ内でのコード補完・チャット | GitHub Copilot, Cursor |
Google Cloud Blogに「Choosing Antigravity or Gemini CLI」という公式ガイドが掲載されている。新規プロジェクトのスクラッチ開発にはAntigravity、既存リポジトリのメンテナンスやCI/CDパイプラインの構築にはGemini CLIという棲み分けだ。Firebase StudioはAntigravityのバックエンドにFirebaseの本番環境を直結する上位統合にあたる。
MCP対応でツール連携が加速
MCPサーバーの公開レジストリには2026年5月時点で14,000以上のサーバーが登録されている。Gemini APIがMCPに対応したことで、これらのサーバーをGemini CLI経由でそのまま利用できるようになった。AWS MCP ServerやContext7といった人気サーバーをGeminiのエージェントから呼び出す構成が現実的になっている。
# Gemini CLIでMCPサーバーを使う設定例(gemini-settings.json)
{
"mcpServers": {
"context7": {
"command": "npx",
"args": ["-y", "@upstash/context7-mcp@latest"]
},
"github": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-github"]
}
}
}
注目発表⑤ Googlebooks—Android搭載ラップトップ
Googlebooksは、Chromebookの後継にあたるAndroid搭載ラップトップだ。Acer・ASUS・Lenovoが2026年秋に発売する。ChromeOSベースのChromebookとの決定的な差は2つ。Androidアプリをネイティブで動かせること、そしてGemini Intelligenceを載せて出荷する点だ。
開発者にとって気になる仕様を列挙する。
- Androidアプリのネイティブ実行: エミュレーション層なしでAndroidアプリが動作。開発中のアプリをラップトップで直接テスト可能
- スマートフォン連携: PhoneアプリのストリーミングにGooglebookが対応。デバッグ中の画面をそのままラップトップに映せる
- Magic Pointer: タッチパッド操作をタッチスクリーンのジェスチャーに変換。タッチ前提のUIテストがタッチパッドだけで完了する
- Gemini搭載: Gemini IntelligenceがOS標準。ファイル検索、テキスト要約、コード補完がラップトップ全体で利用可能
もったいないと感じるのが日本市場への展開時期
現時点でGooglebooksの日本発売は未定。Chromebookは教育市場で普及したが、Googlebooksの法人・教育向け展開がいつ始まるか、Google Japanからの公式発表を待つ必要がある。
5月19日メインキーノートの注目ポイント
Android Showは前菜にすぎない。5月19〜20日のGoogle I/Oメインキーノートでは、モデルとプラットフォームの大型発表が控えている。開発者コミュニティで飛び交っている情報から、確度の高い予測を3つ挙げる。
Gemini 4の発表可能性
Google DeepMindのDemis Hassabisは2025年末の時点で「2026年前半にGemini 4系」を示唆していた。Gemini 3.1のリリースサイクルを考えると、I/Oでのプレビュー公開は十分にありうる。仮にGemini 4が発表されれば、2Mトークン超のコンテキストウィンドウ、マルチモーダル推論のさらなる強化が焦点になるだろう。
Android 17の開発者向け機能
Android ShowでGoogleが断片的に触れたAndroid 17の開発者向け機能を確認した。
Material 3 Expressive
デザインシステムの本格導入。アニメーション・色彩・タイポグラフィが一新。
Health Connect API拡張
ウェアラブルデバイスとの健康データ連携を強化。
Pause Point API
スクリーンタイム管理のフック。アプリ側から休憩提案を出せる。
Screen Reactions
画面操作に対するリアクティブUI。ジェスチャー応答を標準化。
エージェント型開発ツールの全貌
Firebase Studioのエージェント機能、Antigravityの正式版、Gemini Code Assistのエージェントモード——Google I/O 2026のメインキーノートで一斉に発表される可能性が高い。AIエージェント開発フレームワークの勢力図が変わる日だ。Android AI開発の標準ツールチェーンが固まる。
5月19日の視聴方法
Google I/O 2026メインキーノートは5月19日午前10時(PT)/ 日本時間5月20日午前2時からYouTubeでライブ配信。開発者セッションは5月20日終日。
AI開発者・エンジニアへのキャリア影響
Google I/O 2026の発表は「技術トレンド」の話に見える。だがエンジニアの求人市場は動き始めている。Googleの求人票に「Gemini API」「Android AI」の文言が目立ち始めたのは2026年3月頃からだ。
需要が伸びる3つのスキル領域
Gemini API開発
Function Calling + Computer Use + MCPを組み合わせたエージェント構築。Google CloudのAI/MLエンジニア求人で言及が増加中。
マルチモーダルUX設計
Gemini Intelligenceのようなアプリ横断AIのUXを設計できるデザインエンジニア。テキスト・音声・画像を自然に切り替えるインターフェース設計。
AIセキュリティ・ガバナンス
Auto-browseのようなエージェントが決済やPII(個人情報)を扱うケースが増える。AI安全性の専門知識はAIエンジニア転職で差別化要因になる。
Androidエンジニアへの影響
Vibe-coded Widgetsの登場で「簡単なUIはAIが作る」時代が加速する。Androidエンジニアの仕事が減るかと言えば、むしろ逆だ。Gemini Intelligenceと連携するアプリのAPI設計、エージェント対応のIntent定義、プライバシー保護のためのデータアクセス制御——AIが作れない「裏側の設計」に需要がシフトしていく。
Gartnerの予測では、2026年末までにビジネスアプリの40%がAIエージェントを搭載する。Android AIの流れを見れば、この数字は控えめにすら感じる。
2年後の求人票には「Gemini API + MCP連携経験」が標準要件として並ぶ。Google I/O 2026の発表はその起点だ。今動かないと、その時点でスタート地点に立てない。
自分ならこう動く
まずGemini CLI v0.30.0をインストールして、既存プロジェクトでFunction Callingを試す。その次にMCPサーバーを1つ接続して「外部ツールと連携するエージェント」の最小構成を体験する。5月19日の発表で全体像が見えたら、プロンプトエンジニアリングのスキルと合わせてポートフォリオに組み込む。
Gemini API料金と利用プラン
Google I/O 2026で発表された新機能の多くはGemini APIを通じて利用する。開発者が気になるコストを、主要モデルと比較する形でまとめた。
| モデル | 入力(/1Mトークン) | 出力(/1Mトークン) | コンテキスト |
|---|---|---|---|
| Gemini 3.1 Pro | $3.50 | $10.50 | 2M |
| Gemini 3.1 Flash-Lite | $0.25 | $1.00 | 1M |
| Claude Opus 4.7 | $15.00 | $75.00 | 1M |
| GPT-5.5 | $2.00 | $12.00 | 128K |
| DeepSeek V4 | $0.28 | $0.35 | 128K |
Gemini 3.1 ProはGPT-5.5と近い価格帯で、コンテキスト長では圧倒的に優位(2M vs 128K)。コスト効率重視ならFlash-Liteの$0.25/Mトークンが際立つ。Computer UseやFunction Callingの追加料金は現時点で発表されていない。
# Gemini 3.1 Pro Preview をPython SDKで呼び出す例
import google.generativeai as genai
genai.configure(api_key="YOUR_API_KEY")
model = genai.GenerativeModel("gemini-3.1-pro-preview")
response = model.generate_content(
"Google I/O 2026の主要発表を箇条書きで要約してください",
generation_config={"max_output_tokens": 1024}
)
print(response.text)
よくある質問
Google I/O 2026はいつ開催される?
Android Show: I/O Editionは2026年5月12日に開催済み。メインキーノートは5月19日午前10時(PT)/ 日本時間5月20日午前2時から。YouTubeでライブ配信される。
Gemini Intelligenceは日本で使えるのか?
Gemini Intelligenceの機能は2026年夏にSamsung GalaxyとGoogle Pixelから先行提供。日本での提供時期は公式未発表だが、Gemini自体は日本語対応済みのため、デバイス展開に合わせて利用可能になる見込み。
Gemini 3.1 Pro Previewは無料で使える?
AI Studioの無料枠内で利用可能。API経由の場合は入力$3.50/1Mトークン、出力$10.50/1Mトークン。Gemini CLIも無料で利用できる。
Chrome Auto-browseはデスクトップでも使える?
現時点ではChrome for Androidのみ。デスクトップ版については5月19日のメインキーノートで発表される可能性がある。Gemini CLIには実験的なブラウザエージェント機能がすでに搭載されている。
Googlebooksは日本で買える?
2026年秋に米国で発売予定(Acer・ASUS・Lenovo)。日本での発売時期は未定。
Interactions APIの旧SDK廃止はいつ?
2026年6月8日。Python SDK 1.x系、JavaScript SDK 1.x系が対象。Google AI for Developersに移行ガイドが掲載されている。
まとめ
5月12日のAndroid Showで、Googleはプラットフォームの設計思想を変えた。モデルを賢くする競争は一段落し、「誰がモデルをどこに埋め込むか」の争いが始まっている。Android AIにGemini Intelligenceを組み込んだGoogleは、アプリ開発者に対して有利なポジションを取った。
開発者として押さえるべきポイントは3つ。
- Gemini API旧SDKの移行: 6月8日の廃止期限までにPython/JS SDKを最新版に更新する
- MCP対応のキャッチアップ: Gemini CLIでMCPサーバー連携を試し、エージェント開発のスキルを積む
- 5月19日のメインキーノートをウォッチ: Gemini 4、Firebase Studio、Android 17の全貌が明らかになる
4月に9つのフロンティアモデルが一斉にリリースされた「モデル戦争」の後、5月はその上に乗る「プラットフォーム戦争」が始まった。Googleが見せているのは「賢いモデル」ではなく「モデルをどう使わせるか」の設計力だ。5月19日の続報に注目したい。