谷歌發布了名為「FunctionGemma」的智慧型手機人工智慧代理。經過微調,準確率達到了85%。 谷歌發布了名為「FunctionGemma」的智慧型手機人工智慧代理。經過微調,準確率達到了85%。

谷歌發布了名為「FunctionGemma」的智慧型手機人工智慧代理。經過微調,準確率達到了85%。

谷歌發布了名為「FunctionGemma」的智慧型手機人工智慧代理。經過微調,準確率達到了85%。

2025年12月18日,Google發布了FunctionGemma,這是一款專門用於函數呼叫的AI模型。它是Gemma 3 270M模型的微調版本,能夠將自然語言轉換為可執行的API操作。 FunctionGemma採用輕量設計,可在邊緣設備本地運作。在行動操作評估中,微調後的準確率從58%提升至85%。

它可在 NVIDIA Jetson Nano 和行動裝置上運行,並能高效處理 JSON 和多語言輸入,詞彙量高達 256k。模型可使用 Hugging Face Transformers、Unsloth、Keras 和 NVIDIA NeMo 進行微調,並可與 LiteRT-LM、vLLM、MLX、Llama.cpp、Ollama、Vertex AI 和 LM Studio 等工具搭配使用。模型可從 Hugging Face 和 Kaggle 下載。

Gemma 系列遊戲的下載量從 1 億次增加到 2025 年的 3 億多次。

從: 文献リンク FunctionGemma:將自訂函數呼叫帶到邊緣

 - innovaTopia - (イノベトピア)
引自Google官方新聞稿

【社論】

FunctionGemma是Google面向邊緣設備的「行為人工智慧」發展歷程中的一個轉折點。儘管它規模不大(2.7億個參數),但它是一個專門用於函數調用的模型,可以將自然語言轉換為設備上的API執行,並且是整個行業從對話式界面向可操作代理轉變的趨勢的典型代表。

該模型的最大特點在於其完全離線運行諸如註冊日曆條目和更改系統設定等任務,無需連接雲端,即可在行動裝置和 NVIDIA Jetson Nano 等邊緣裝置上完成。這不僅提升了便利性,還同時實現了兩個重要價值:隱私保護和降低延遲。

有趣的是,Google強烈建議「進行微調,而非通用提示工程」。在一項行動操作評估中,基礎模型的準確率為 58%,但經過微調後,準確率提升至 85%。這表明,針對特定任務的訓練遠比針對邊緣 AI 代理的通用提示有效。事實上,根據 VentureBeat 的一份報告,準確率提升 27 個百分點被認為是確保邊緣可靠性的「顛覆性」突破。

從技術角度來看,最顯著的特點是其透過 25.6 萬個詞彙表實現了 JSON 的高效處理。 2.7 億個參數中有 1.7 億個分配給了嵌入層,如此龐大的詞彙表使得 JSON 等結構化資料能夠以較短的標記序列進行處理。這樣做的目的是為了減少序列長度,並最大限度地降低函數呼叫應用程式中的延遲。

FunctionGemma既可以作為獨立代理程式運行,也可以作為大型系統的「流量控制器」。它可以配置為混合模式,在邊緣直接處理通用命令,並將複雜任務路由到更大型的模型,例如Gemma 3 27B。這是一種有效解決計算資源優化分配實際難題的方案。

然而,必須注意許可協議。 FunctionGemma 根據 Google 的 Gemma 使用條款發布,允許商業用途,但它並非 OSI 定義的「開源軟體」。該協議對「有害用途」(例如仇恨言論和惡意軟體生成)有所限制,且 Google 保留更新條款的權利。處理雙用途技術或需要嚴格遵守 copyleft 協議的項目的公司應仔細考慮這些條款。

從長遠來看,這種模式有望加速邊緣人工智慧的普及。以往建構高效能人工智慧代理需要大規模雲端基礎設施,而 FunctionGemma 的輕量級設計使開發者能夠建立完全在智慧型手機上運行的應用程式。這在醫療保健和金融等領域尤其重要,因為在這些領域,數據主權至關重要。

然而,邊緣函數呼叫確實存在一些挑戰。根據 IEEE 的研究,邊緣 LLM 在處理複雜輸入和管理多個工具時仍然面臨精確度和延遲問題。 FunctionGemma 能否有效應對這些挑戰,我們拭目以待。

谷歌的生態系統支援也不容忽視。從使用 Hugging Face、Unsloth、Keras 和 NVIDIA NeMo 進行微調,到使用 LiteRT-LM、vLLM、Ollama 和 Vertex AI 進行部署,其設計旨在讓開發者充分利用現有的工具鏈。這種全面的支持將顯著降低採用門檻。

[術語]

函數呼叫
人工智慧模型能夠接收自然語言指令,並適當地選擇和執行外部工具及應用程式介面(API)。例如,當收到「明天天氣怎麼樣?」這樣的指令時,它可以呼叫天氣API並傳回結果。它與傳統對話式人工智慧的區別在於,它能夠實際作業系統,而不僅僅是回應。

邊緣設備
邊緣運算是一種無需依賴雲端伺服器,即可在終端機(邊緣)直接處理資料並執行人工智慧推理的設備。例如智慧型手機、物聯網感測器和工業機器人。由於資料在本地處理而無需發送到雲端,因此可以保護隱私、降低延遲並支援離線操作。

微調
此方法利用額外資料對預先訓練的人工智慧模型進行重新訓練,使其更適合特定任務或領域。與直接使用通用模型相比,這種方法顯著提高了特定應用的準確性和可靠性。 FunctionGemma 已證明其準確率從 58% 提升至 85%。

參數數量(參數)
此指標顯示人工智慧模型已學習的知識量。數值越高,模型通常能夠執行的任務就越複雜,但同時也需要更多的運算資源和記憶體。 270M 表示模型擁有 2.7 億個參數,屬於小型模型,可在邊緣設備上運作。

量子化
這項技術透過降低人工智慧模型的數值精度來減少檔案大小和記憶體佔用。例如,INT4 量化將 16 位元精度壓縮到 4 位,從而在不顯著降低效能的情況下減輕模型重量。這種最佳化方法對於在邊緣設備上執行至關重要。

上下文視窗
AI模型一次可以處理的最大輸入文字長度。 FunctionGemma擁有32K個詞元(約24,000個單字)的上下文,使其能夠處理複雜的指令和較長的對話歷史記錄。

Gemma 系列<br>Google提供的一系列開源 AI 模型。提供五種規模:270M、1B、4B、12B 和 27B,您可以根據自身需求和資源選擇最合適的規模。該系列模型基於 Gemini 技術開發,預計 2025 年下載量將突破 3 億次。

移動操作
此基準資料集由Google提供,用於評估行動作業系統上函數呼叫的準確性,包括新增日曆條目、新增聯絡人和開啟手電筒等真實智慧型手機操作任務。

LiteRT-LM
Google 提供的輕量行動裝置 AI 執行環境。作為 TensorFlow Lite 的繼任者,它提供了一套工具包,用於在 Android 和 iOS 上高效運行 AI 模型。

[參考連結]

FunctionGemma 官方頁面(Google AI for Developers) (外部連結)
這是Google提供的 FunctionGemma 官方文件。它全面解釋了詳細的模型規格、函數呼叫模板、微調方法、實作範例等等。

FunctionGemma 模型頁面(擁抱臉) (外部)
這是 Hugging Face 發布的 FunctionGemma 模型卡。提供下載、授權資訊、技術規格和程式碼範例,方便您立即開始開發。

FunctionGemma 模型頁面(Kaggle) (外部)
FunctionGemma 模型和資料集已發佈在 Kaggle 上。您也可以存取 Mobile Actions 資料集和 Colab notebook 進行微調。

Google AI Edge Gallery(Google Play) (外部連結)
FunctionGemma 示範應用程式。 Android 應用程序,可讓您體驗實際操作,包括 TinyGarden 遊戲和 Mobile Actions 代理程式。

NVIDIA Jetson 官方網站(外部連結)
NVIDIA面向邊緣AI的運算平台。官方稱之為FunctionGemma的作業系統環境,主要用於機器人和物聯網應用。

Gemma 3 270M 型號介紹頁(Google 開發者部落格) (外部連結)
本文詳細介紹了 FunctionGemma 的基礎型號 Gemma 3 270M,包括其架構、效能基準測試和應用案例。

Unsloth 官方網站(外部連結)
一個開源庫,可加速人工智慧模型的微調。它是 FunctionGemma 官方支援的工具之一,值得推薦。

Ollama 官方網站(外部連結)
一款可讓您輕鬆在本機環境中執行 LLM 的工具。它支援多種模型,包括 FunctionGemma,並且可以透過單一命令列進行部署。

[參考影片]

[參考文章]

Google 發佈 FunctionGemma:可透過自然語言控制行動裝置的微型邊緣模型 | VentureBeat (外部連結)
VentureBeat 發表了一篇詳細的技術分析文章,解釋了 FunctionGemma 解決的「邊緣執行差距」問題,行動操作評估的準確率從 58% 提高到 85%,以及許可方面的說明(它不是 OSI 定義的開源軟體)。

Google推出用於裝置端函數呼叫的FunctionGemma | Testing Catalog (外部連結)
文章詳細介紹了 FunctionGemma 的統一結構化函數呼叫與對話功能結合、256k 詞彙表以實現 JSON 效率,以及完全離線操作以實現低延遲和隱私保護。

Google 發佈 FunctionGemma:以裝置端代理程式為導向的輕量級函數呼叫模型 | Edge AI and Vision Alliance (外部連結)
面向邊緣人工智慧工程師的專家分析,解釋了其作為局部優先行動代理的定位、微調以實現確定性行為的重要性以及 32K 上下文視窗等技術規範。

FunctionGemma:我微調了Google的 270M Edge 模型並在我的 S23 上進行了測試 | Medium (外部連結)
這是一份開發者在真機上進行的測試報告。報告內容包括對三星S23進行微調和執行的結果,並根據實際經驗解釋了為什麼僅靠快速的工程開發無法滿足生產環境中的精度要求。

隆重介紹 Gemma 3 270M:高效緊湊型 AI 模型 | Google 開發者部落格(外部連結)
這是 FunctionGemma 基礎模型的官方公告文章。它提供了具體的數值數據,例如 2.7 億個參數(1.7 億個嵌入,1 億個 Transformer)的細分、25.6 萬個詞彙表的重要性,以及在 Pixel 9 Pro 上 0.75% 的電池消耗(25 次對話)。

Google 發佈 FunctionGemma:輕量級裝置端函數呼叫模型 | The Rift (外部連結)
它報告了有關 FunctionGemma 的內存使用情況(550MB RAM)、其作為獨立代理或流量控制器的兩種操作模式的信息,並提供了微調指南和交互式演示。

部署函數 Gemma | 鐵路(外部)
有關部署 FunctionGemma 的技術信息,包括 270M 參數下的近乎瞬時的延遲、超過 550MB RAM 的運行以及對注重隱私、本地優先應用程序的適用性。

[編者註]

FunctionGemma代表了人工智慧從「說話」到「行動」的轉折點。在未來,當你的智慧型手機無需連接雲端即可完全離線執行複雜任務時,它又會帶來哪些可能性?

即時回應且保護您隱私的私人智慧助理。您的數據永遠不會離開您的設備,讓您倍感安心。我們誠摯邀請您與我們一同探討這項技術將如何改變我們與設備之間的關係。您對邊緣人工智慧有何期待?