FIND研究員:洪博文
在生成式AI爆發的一年之後,企業主對AI導入的熱情仍高,但現實問題卻漸漸湧現。高昂的雲端API成本、回應延遲、以及愈來愈敏感的數據隱私議題,使得許多企業在AI轉型的路上舉棋不定。然而,一項正在快速崛起的技術-小型語言模型(Small Language Models, SLM),正成為這場AI革新的下一個關鍵主角。
SLM的崛起:從「越大越好」到「剛剛好就好」
過去我們相信模型愈大就愈聰明。GPT系列、Claude、Gemini,動輒上千億參數的模型確實帶來革命性的能力,但也讓AI的使用門檻高漲。成本、延遲、與隱私風險成了企業導入AI最現實的障礙。
SLM走出了一條不同的路。它通常只有數億到數十億參數,通過知識蒸餾(Knowledge Distillation)、剪枝(Pruning)與量化(Quantization)等技術,將大型模型的知識濃縮成高效版本。如此一來,AI不再受限於雲端伺服器,在筆電、手機、甚至工廠的IoT終端都能直接執行。
對企業而言,這意味著三件重要的事:
數據不再離開企業內網,資料安全可控。
不依賴昂貴API,營運成本大幅降低。
即時反應能力更好,符合製造、客服等高時效場景需求。
微軟Phi-3:小模型的大驗證
SLM已不再只是實驗室概念,而是科技巨頭的核心戰略方向。以微軟的Phi-3為例,其中最小版本Phi-3-mini 僅3.8億參數,卻在多項測試中超越Gemma-7B等更大模型,效能甚至逼近GPT-3.5。
圖1:Phi-3模型在MMLU基準測試中的表現,並與其他相近規模的模型進行比較
資料來源:Tiny but mighty: The Phi-3 small language models with big potential
值得注意的是,印度ITC集團的農業平台「Krishi Mitra」導入Phi-3,為上百萬名農民提供AI助理服務,實現低延遲、可離線運作的智慧顧問,證明SLM在資源受限的環境中也能創造真實的商業價值。
除了微軟之外,Google的 Gemma、Meta的Llama,以及蘋果的OpenELM也正積極投入可在裝置端運行的模型開發,這場「AI去雲端化」的戰爭已正式揭開序幕。
混合式AI:SLM與LLM的分工共生
SLM並非要取代LLM,而是與之共存的策略組合。越來越多企業採用「混合式AI」(Hybrid AI)設計,重塑AI架構分工:
前端(On-device):由SLM處理95%的高頻率、隱私性高、反應要求快的任務,如即時客服、文件草稿生成、個人化推薦等。
雲端(Cloud):由LLM負責最複雜、需海量知識或長推理鏈的工作,例如市場預測、新藥研發或策略規劃。
這種分層策略兼顧效率、隱私與智慧深度,將AI從「雲上的工具」真正轉化為「企業內的大腦」。
結語:AI控制權的回歸
大型語言模型讓AI誕生,小型語言模型則讓AI落地。SLM代表的是一種「自主AI」思維,讓企業重新掌握資料與決策的控制權,建立專屬的內部模型,打造差異化的智慧競爭力。AI的下個階段,將不再是「誰擁有最大的模型」,而是「誰能讓模型離自己最近」。
參考資料來源:
小型語言模型 (SLM) 是什麽?| Microsoft Azure
使用小型語言模型和 CPU 最大化 AI 效率
Tiny but mighty: The Phi-3 small language models with big potential - Source
Gemma - Google DeepMind
Introducing Phi-3: Redefining what's possible with SLMs | Microsoft Azure Blog