在 Google I/O 2025 上,除了軟體與 AI 模型的升級外,Google 硬體平台的佈局也引起高度關注。
這次不僅推出第七代 TPU,還聯手 Samsung 打造 Android XR 頭戴裝置。
並發表全新 AI 視訊平台 Google Beam,正式邁向「AI 原生裝置」的世代。
以下就從 3 大硬體亮點出發,逐一拆解這些設備如何支援 Gemini 模型與 AI 應用的落地實踐。
TPU v7:Google 自研 AI 晶片再突破
TPU(Tensor Processing Unit)自推出以來就專為 AI 運算設計。
而最新的第七代 TPU v7「Ironwood」 更是一次大幅升級。
效能比上一代提升 10 倍,單個 Pod 更可達 42.5 xflops 的推理能力。
TPU v7 的架構與效能重點
TPU v7 採用新一代矩陣運算架構。
針對大語言模型(如 Gemini 2.5 Pro)進行最佳化設計。
它支援更高頻寬與多節點並行處理,能處理更大上下文的資料流。
強化 AI 模型在語意理解、推理與多模態資料分析上的效率。
若你對這類 AI 模型實際運算需求有興趣。
你可以閱讀《Google Gemini 模型全解》,了解 Pro 與 Flash 模型在架構設計上的不同。
Android XR 裝置:AI 視覺即時體驗的入口
Google 與 Samsung、Qualcomm 合作推出 Android XR 平台。
並展示首款頭戴裝置 Project Moohan,成為整合 AI 模型與多模態感知的主力裝置之一。
XR 裝置功能與應用場景
Android XR 裝置具備鏡頭、麥克風、揚聲器與內嵌顯示器。
讓使用者在佩戴時可實時與外界互動。
結合 Gemini 模型後,使用者可透過語音詢問看到的場景、即時翻譯或啟動任務助手,像是在現場有一位 AI 助理陪伴。
這項技術背後正是來自 Google 即時互動技術,讓 AI 能看懂鏡頭畫面、聽懂指令並回應使用者。
XR 與搜尋、創作的結合潛力
XR 裝置也可整合至 AI 搜尋流程。
例如透過鏡頭比對商品資訊並啟用 Google 搜尋 AI 摘要,實現線上與現場同步查詢的新模式。
Google Beam:AI 驅動的沉浸式視訊通訊平台
Google Beam 是本次發表的全新硬體概念,主打「AI 優先」的視訊通訊體驗。
它採用六組攝影機陣列,結合 AI 模型進行 3D 合成並投影於光場顯示器上。
打造如臨現場般的立體對話介面。
Google Beam 的應用技術與合作布局
- 硬體結構:具備即時捕捉與建構 3D 形象的能力。
- 軟體整合:搭配 Gemini 模型,能根據使用者語調、表情與對話內容做出即時 AI 生成反應。
Beam 將應用於企業溝通、遠距教學與高互動會議場景。
未來甚至可能成為 Google Meet 的進階版本。
若你對這些創作與溝通功能整合 AI 模型的應用潛力有興趣。
你可以閱讀《Google AI 創作工具總覽》,瞭解 Flow 與 VO3 等內容生成工具如何配合硬體設備發揮最大效能。
結論:AI 原生硬體將重新定義人機互動
從 TPU 到 XR,再到 AI 通訊設備。
Google 正積極推動「AI 原生化」的裝置設計。
讓硬體本身具備理解、回應、推理的能力。
這些硬體不再只是載體,而是 AI 能力的一部分。
未來不論是你在用電腦剪片、在眼鏡中即時查詢,或在視訊中與 AI 助理對話。
Google 的硬體平台都將扮演推動未來互動體驗的關鍵角色!