開源大型語言模型對製造業 LLMOps SaaS 服務的影響分析報告

同樣寫在前面

近年來,隨著開源大型語言模型(例如 OpenAI 推出的 gpt‑oss‑20b、Google 的 Gemma 等)的日益成熟,在製造業情境中部署 LLM 的方式正受到深遠影響。企業現在可以選擇自行訓練與部署高性能的開源模型,使他們在LLMOps 的各個層面上擁有更大的掌控權和靈活度。本報告將重點分析這些開源 LLM 的興起如何影響製造業應用場景下 LLMOps SaaS 服務的幾個大面向,包含模型訓練與部署策略、推論服務優化、資源管理與版本控制、模型與資料安全性、營運與成本效率、市場競爭格局以及商業模式轉變。同時,我們將著重探討製造業實務中的挑戰與機會,並輔以具體案例與最新趨勢說明。

模型訓練與部署策略

開源 LLM 的成熟為製造業者提供了新的模型訓練與部署策略,可更貼近產業需求:

  • 領域資料微調:製造業領域具有專門術語、流程知識和合規要求,因此模型若無法理解這些內容,效果將大打折扣。隨著開源模型開放權重,企業可以將其內部數據(如工程手冊、維修記錄等)用於模型微調,以提升模型對製造業專業知識的掌握。例如,一家航空零件製造商可以對開源模型進行微調,學習其機械維修手冊中的專有名詞與流程,從而讓模型更精確地回答維修技術問題。研究指出,透過在大規模領域資料上進一步訓練,模型能更好吸收製造業的專門知識,更適用相關應用。此外,企業也可結合專家系統規則與人工審查流程,以提高模型回覆的準確性與可靠性。
  • 在地化部署(On-Premise):開源模型允許企業選擇將模型部署在本地端或邊緣裝置上,以降低對雲端的依賴,滿足製造現場實時性與資料管控需求。例如 OpenAI 提供的 gpt-oss-20b 僅需約 16GB 記憶體即可運行,可在邊緣裝置上執行,適合在工廠內部伺服器或高階工作站進行本地推論。這意味著一些現場應用(如產線設備即時監控輔助)可以離線運行模型,減少網路延遲並確保敏感生產數據不離開工廠。同時,本地部署避免了雲端高昂的計算基礎設施費用,使快速迭代成為可能。例如,智慧工廠可將開源 20 億參數模型部署在產線邊緣伺服器上,提供現場技師查詢故障排除資訊的對話助手,實現低延遲響應且不必擔心生產機密外泄。
  • 多架構與靈活佈署:開源模型通常提供多種框架和工具支持,方便企業依照自身技術棧進行訓練與佈署。例如 Google 的 Gemma 開源模型系列提供 JAX、PyTorch、TensorFlow 等主流框架的參考實現和工具鏈,並支援在各種環境中部署(從開發者筆電、工作站到雲端的 Kubernetes 叢集)。企業可以輕鬆地將模型佈署到現有的雲服務(如 Google Vertex AI、AWS、Azure 等)或自有資料中心。這種佈署靈活性意味著製造業者能將模型嵌入不同的工作流程中:例如在產線系統中內嵌小型模型於機台終端,或在雲端後端部署大型模型處理更複雜的生產計劃優化任務。開源模型允許依據效能需求選擇模型尺寸與架構,使部署策略更具彈性(例如對即時性要求高的應用選擇小模型本地部署,對深度分析需求則可選擇大模型雲端部署)。
  • 工具整合與代理能力:隨著開源模型具備工具使用與代理(Agent)能力,部署策略也可結合外部工具來增強模型功能。例如 gpt-oss 系列針對代理型任務進行優化,可與搜尋、資料庫查詢或程式執行等工具配合。製造業場景中,這意味模型可在部署時與企業現有系統整合:如自動查詢維修知識庫、調用排程系統資料等,提供更精確的回覆。OpenAI 的 gpt-oss 模型即宣稱對工具使用和程式執行具有強大能力,方便開發者在自主架構的工作流程中將模型作為智慧代理進行部署。一家工廠可部署整合了開源 LLM 的客服系統,讓模型自動調用內部庫存系統查詢庫存或利用搜尋引擎獲取最新供應鏈資訊,從而在單一對話中解答使用者的複合詢問。總之,開源 LLM 的崛起使製造業者能自主管理模型訓練與部署,透過微調掌握領域知識、本地部署保障資料主權,以及靈活結合工具來滿足多樣化的工業應用需求。

推論服務優化(效能、延遲、成本)

對於製造業應用而言,推論服務的效能與成本優化是導入成功與否的關鍵之一。開源大型模型帶來了新的優化途徑,以提升模型回應速度、降低資源消耗並控制推論成本:

  • 高效能推論架構:開源社群提供了眾多針對 LLM 的高效推論引擎和最佳化方案。例如企業可採用像 Hugging Face Transformers 或 NVIDIA TensorRT-LLM 等函式庫來加速推理,也可以使用專門的推論服務框架(如 vLLM、DeepSpeed-Inference 等)實現高吞吐。一些先進的平台(如 C3.ai 提供的企業 AI 平台)整合了各種優化技術,包括 GPU 記憶體分頁(PagedAttention)提高記憶體利用率、自訂 CUDA Kernel 針對硬體優化計算、持續批處理將請求累積一起處理以提升吞吐量高達 100 倍。另外,支持多種量化精度的模型可以大幅縮減模型大小,加速推論並減少記憶體占用。這些優化手段可確保即使在資源受限的本地環境或邊緣設備上,也能以較低延遲提供推論服務。例如,一條生產線上的品質檢測攝影機可在本地 GPU 上運行經量化的開源模型,透過批量處理分析多張照片,在不影響生產速度的情況下即時輸出檢測結果。
  • 延遲優化與即時性:製造業現場許多應用要求低延遲、即時的回應(如 機器人控制指令生成危險事件監測等)。開源模型允許將推論服務靠近資料產生地進行佈署,減少網路傳輸延遲。同時,可透過Token 串流輸出(Streaming)等技術,讓使用者在模型完整答案產生前就開始看到部分內容,以提升互動體驗。例如,維修技師查詢故障排除步驟時,模型可以一邊生成答案一邊即時呈現,縮短有效等待時間。另外,對於即時性要求極高的場景,可以選擇小參數模型或蒐集大量邊緣資料對模型進行剪枝、知識蒸餾,確保模型精簡的同時仍保有足夠知識,用以換取毫秒級的響應。例如,工廠中的協作機器人若需語言模型輔助決策,可使用經蒸餾的中型開源模型來平衡決策質量與反應速度。
  • 硬體與佈署優化:企業可以針對推論服務選擇適當的硬體與佈署規模來優化效能/成本比。在雲端環境,這意味着按需選擇 GPU/TPU 等算力(如 A100、H100 GPU)並利用 Auto-Scaling 來滿足流量高峰,同時在低負載時釋放資源節省成本。在自有資料中心,則可透過容器化部署和編排(Kubernetes 等)來調度資源,例如為不同模型實例分配獨立的 GPU 節點以避免資源爭用。透過監控推論服務的使用情況,企業能夠動態調整模型副本數量與硬體配置,以同時保證服務等級和成本效益。舉例來說,一家電子代工廠部署了多個開源模型服務(供不同部門使用),他們使用容器編排平臺設定每個模型的自動水平擴展策略:白天工作高峰期自動擴充更多 GPU instances 支撐查詢量,夜間則縮減 instance 數以節省能源與算力資源。
  • 成本控制與推論收費模式優化:開源模型的使用使企業有機會重新評估推論服務的成本結構。傳統 SaaS 提供的封閉模型通常採按量計費(例如每千字生成收費/百萬 Token 劑量收費)的模式,而使用開源模型自建服務後,邊際查詢成本大幅下降,模型權重本身無授權費用(只需考量硬體折舊、電力以及工程團隊成本),因而對於高頻使用的應用,單次推論的平均成本可能遠低於商業 API。例如,一家大型製造企業每天需要生成數萬條生產日報的摘要,若使用某商業閉源 API,可能產生可觀的月度帳單;相較之下,部署自己的開源模型並優化推論吞吐後,每筆摘要的計算成本僅相當於維運機房伺服器的固定開銷。需要注意的是,自行承擔推論服務也引入了固定成本(如硬體採購、工程人員維護等)。因此,企業必須權衡資源投入與規模效益:當使用量足夠大時,自建模型推論的平均成本優勢明顯,而在使用量較少的情況下,可能仍需考慮混合使用SaaS服務,以避免資源閒置浪費。整體而言,透過技術優化和靈活的佈署策略,製造業者可以在確保效能與低延遲的同時,大幅降低推論服務的長期運營成本。

資源管理與版本控制

在採用開源 LLM 的情境下,企業需要建立成熟的資源管理與版本控制機制,以有效地管理多個模型和大規模運算資源,確保模型持續穩定運行並方便升級迭代:

  • 計算資源規劃與調度:大型模型通常對硬體資源(GPU、TPU、記憶體等)需求龐大。企業必須根據工作負載為模型選擇適當的硬體配置,並利用調度系統進行資源管理。例如可透過定義硬體設定檔來指派特定型號和數量的 GPU 給某一模型 instance。以 C3.ai 平台的實作為例,用戶可以明確指定模型需要的 GPU 類型(如 8 張 80GB H100)以及 CPU、記憶體配額,以建立對應的硬體部署。這種做法確保每個模型部署都有充足且隔離的資源,不會因為與其他任務爭奪資源而導致性能波動。同時,對於多個模型平行運行的場景,可透過容器化技術和容器編排(如 Kubernetes)將模型服務打包,方便在叢集上彈性調度。藉由節點池等機制,運維人員可以指定模型副本應該運行在哪些節點、需要維持多少副本來滿足效能和高可用要求。舉例來說,一家智慧製造企業可在其內網 K8s 叢集上部署了不同用途的開源模型(客服問答、設備故障診斷等),運用標籤和節點選擇器確保高優先級的診斷模型總是調度到具有 GPU 的節點上運行,而客服問答模型可在 CPU 節點上以量化模式執行,以充分利用各類算力資源。
  • 模型版本管控與發布流程:隨著企業對開源模型進行持續的微調與改進,版本控制已經不再是可選項。每當模型權重或配置更新時,都應該登錄版本號並保存變更記錄。透過建立模型註冊庫(Model Registry),可以為每個已部署的模型生成唯一版本名稱,並關聯該版本的權重檔案路徑、訓練用的參數和描述。這使團隊能追蹤模型從試驗階段到上線的歷程,方便在必要時回溯或回滾至舊版本。實務上可結合 CI/CD 管線實現模型的自動部署與回退:每當有新模型通過評估,就自動標記版本並部署到測試環境進行 A/B 測試,確保性能優於現有生產版本後再切換流量進入生產環境。若新版本出現問題,則迅速回滾至先前穩定版本以降低風險。透過嚴格的版本管控,製造業者可以最小化模型更新對生產的干擾,同時積累模型演進的知識資產。實務上一家工業軟體提供商在推出一款開源模型驅動的智能助理時,建立了完善的模型版本庫:每次對模型進行新的領域微調,都以日期和內容作標記,部署前執行回歸測試,確保更新帶來正向效益,再以藍綠部署方式平滑切換新模型上線,讓用戶幾乎無感知地獲得了性能改善的服務。
  • 資料與配置的版本控制:除了模型本身,相關的訓練資料集、提示詞模板和超參數配置也需要版本控制。製造業應用中常涉及定期更新的知識(如新的產品線說明、最新維修記錄等),企業可能定期將這些新知識融入模型。為確保可追溯性,應對每次使用的資料集快照、訓練腳本和超參數設定存檔備份。例如,在對客服問答模型進行季度更新時,保存該次使用的增量資料(Q&A 對話紀錄)版本,這樣若發現模型出現知識斷層或不良行為,可分析是何時何種資料導入導致,從而針對性修正。工具方面,可使用 git 等版本控制系統管理提示詞腳本和配置,並將大型資料集存放於帶版本控制的數據庫或資料湖中。一些 MLOps 平台(如 MLflow、DagsHub 等)提供了對模型和資料的統一版本管理支援,使團隊成員能方便地共享和重現他人實驗的結果。透過對模型、資料和配置的全方位版本管控,製造企業在模型生命周期管理上將更有條理,滿足如 ISO 9001 等質量管理體系對變更控制的要求,也為日後的審計和合規提供了依據。
  • 多模型與環境管理:製造業數位化轉型往往涉及多種 AI 模型並存。例如,不同部門可能各自微調開源模型用於不同用途(生產排程優化、質量檢測、客服系統等)。此時需要一套多模型管理策略,確保所有模型在各自環境中運行順暢且互不干擾。運維團隊可規範模型命名和資源配額,防止因資源競爭導致效能下降。例如,限制每台伺服器同時運行的大模型實例數量,或為不同應用的模型分配專屬硬體,以避免一個模型佔滿 GPU 導致其他服務停滯。此外,為了有效管理測試與生產兩種環境,團隊可以採用分離環境的做法:在開發/測試環境中允許工程師頻繁部署新模型進行試驗,而生產環境僅透過嚴格流程升級通過驗證的模型。利用容器化和 Infrastructure as Code,可以輕鬆複製出一致的測試環境,讓開發人員模擬生產環境條件來驗證模型行為,再將配置推送到生產環境部署。這種多環境治理確保了模型升級的安全性與可靠性,同時也提高團隊協作效率和信心。開源 LLM 的應用讓企業在享受模型高度自主性的同時,亦須採取嚴謹的資源與版本管理措施,以維持系統的穩定、高效和可控。

模型與資料安全性

在製造業採用 LLM 時,模型與資料的安全性是決策關鍵因素之一。開源大型模型的出現,既帶來了新的安全優勢,也引入了不同於傳統封閉模型的安全挑戰:

  • 資料隱私與機密保護:製造企業通常擁有大量專有知識和敏感數據(如產品配方、工藝流程、客戶訂單等)。使用開源 LLM 最大的優勢在於可以將模型部署於企業防火牆內,使專有資料不必外傳即可進行模型推論。相比之下,若使用第三方雲端 API 服務,必須將查詢內容上傳至廠商伺服器,存在資料外泄與未經授權使用的風險。透過自託管開源模型,企業能確保模型與資料皆留存在內部環境,滿足嚴格的資料主權和合規要求。一家國防工業製造商因資訊保密需要,選擇在離線內網中部署開源 LLM,將設計圖紙、測試報告等資料加載進內部向量資料庫供模型檢索,如此一來模型回答工程師問題時無需連網查詢外部,完全杜絕敏感資訊外流的可能。此外,對於開源模型本身,企業也可採取額外措施保障其安全存儲,例如將模型權重檔案加密存放,並限制只有授權服務進程才能在記憶體中解密載入,防止惡意人員竊取模型檔案(尤其當模型已包含微調學到的企業機密知識時)。
  • 模型行為與內容安全:大型語言模型可能產生不實資訊(幻覺)或不當回覆,這在製造業場景可能引發安全隱患(例如錯誤的操作建議可能導致設備損壞或人員危害)。開源模型通常允許企業直接接觸模型機制,因此企業需自行負責模型行為的監督與約束。一方面,企業可以對開源模型進行安全微調和敏感內容過濾:例如 Google 在釋出 Gemma 模型時,同步提供了負責任生成 AI 工具包,包含安全分類器、模型行為偵錯工具和最佳實作指南,以幫助開發者建立模型使用的安全框架。製造業企業可利用這類工具或自行訓練的過濾模型,攔截模型輸出的敏感訊息(如商業機密、個人隱私)或高風險指示(如違反安全規程的操作建議),從而降低不良後果發生機率。另一方面,開源模型本身的透明度也提供了審計和偏見檢測的可能性。企業或第三方專家可以審查模型的訓練數據集與程式碼,以識別潛在的偏見或有害行為傾向,並透過進一步的微調或規則策略來糾正。這種透明度是封閉模型無法提供的(封閉模型的內部權重和訓練過程企業難以知悉),因此開源模型在建立信任方面有優勢。當然,透明也意味著企業需要投入人力物力進行安全測試和審核,以確保模型在各種情境下均表現符合企業和法律的要求。
  • 合規性與第三方風險:製造業常涉及嚴格的產業法規和標準(如航空業的 DO-178C 軟體認證,或汽車業的 ISO 26262 功能安全要求)。使用 LLM 時需評估模型是否符合這些合規要求。對於開源模型,企業須自行蒐集證據證明模型決策的可解釋性、可靠性等以滿足審查。例如,在醫療器械製造領域採用 LLM 協助生成產品技術文件,就需要確保模型不會臆造數據且所有內容均有來源可追溯。企業可採取人機協作的方式增強合規:讓模型初步生成內容後,必須經由有相關資質的人員審核簽字才能發布,確保關鍵資訊正確。同時應該保留模型生成記錄以備將來稽核。在第三方風險方面,雖然開源模型由社群維護帶來活力,但也可能存在潛在漏洞或惡意權重的風險。如果開源模型在開發中未遵循安全編碼標準,可能留有後門或缺陷。企業在選用某個開源模型時,應盡可能選取知名且活躍的項目,並審閱其安全評估報告或社群反饋。一些開源模型社群會發布 Model Card 或技術報告,詳述模型的訓練數據來源、偏見分析和限制。例如,OpenAI 釋出的 gpt-oss 模型就附有研究論文和模型卡,說明其安全測試結果,並提及經過對抗式微調測試模型在極端情境下的表現,以確保其安全水準接近自家封閉模型。企業可以此為參考,針對自身應用進行額外測試,並建立使用政策來規範模型如何被員工和系統調用,防止越權使用或輸出未經授權資訊。在開源 LLM 的安全管控上,製造業者需要採取主動的策略,結合技術措施與管理制度,以保障模型運行和資料使用都維持在安全、合規的範圍內。

營運與資源成本效率

開源大型模型的出現,正在改變企業在 AI 領域的營運成本結構和資源投入方式。製造業者關注如何以最優成本取得所需的 AI 能力,同時確保系統可持續運行和擴展。以下是開源 LLM 對營運與成本效率的影響:

  • 降低模型取得成本與避免授權費:開源模型通常採用開放許可證(如 Apache 2.0),免費供商業使用。這意味著企業不需支付高額的 API 使用費或授權費即可獲得強大的模型能力。特別是對於需要大規模使用模型的製造企業,這將帶來顯著的成本優勢。製造業若使用商業平台的生成式 AI 接口,面對的是不可預測的變動成本(可能每月因數十萬次調用而產生成百上千美元費用);引入開源模型自建服務後,除硬體與維運人力成本外,不再有按次計費,長期看大幅降低 TCO(總擁有成本)。VentureBeat 的報導指出,不少企業選擇開源 LLM 正是出於成本效率的考量。雖然開源路線可能帶來訓練與維護上的額外資源投入,但由於避免了廠商溢價和鎖定,總體而言對許多應用來說仍更為經濟。
  • 硬體投入與運算成本權衡:使用開源模型意味著企業需自理運算資源,這需要權衡資本支出(硬體購置)與運營支出(電力、人力)。對於規模較大的製造企業,可能已有資料中心或雲端合約資源可供模型運行,邊際成本相對低;而中小企業若無現成基礎設施,則需要計算購置 GPU 伺服器或雲端算力的投入是否划算。不過不斷迭代的開源模型日益強調運行效率,如 OpenAI 的 gpt-oss-20b 採用了 Mixture-of-Experts 架構,只啟動部分參數參與計算,大幅降低推論時的硬體需求。再如 Meta 的 LLaMA2 相較於同等參數量的模型在推論效率上也有所優化。因此企業可以選擇較小但經優化的模型來滿足需求,避免一昧追求龐大模型帶來資源浪費。製造業場景下,許多應用其實容許使用中等規模模型即可取得良好效果(例如產品說明文件自動摘要,用 13 億或 70 億參數模型可能已足夠)。針對這些情況,企業不一定需要投入最高端的 GPU 集群,一台配置足夠內存的工作站甚至嵌入式工業電腦即可運行模型。這將降低初始硬體投入並節省能耗。當然,對於需要處理複雜推理任務(如生產計劃多目標優化)的場景,企業可以準備可擴展的算力池,在需要時動態調配多卡並行運算,平衡使用率與能效。
  • 人力與技術成本:自主掌握開源 LLM 意味著對專業人力有一定要求。企業需要具備資料科學家、機器學習工程師和 IT 運維人員組成的團隊,負責模型的訓練、部署、監控和優化。這部分人力成本在傳統依賴外部 SaaS 時可能是隱含的(由SaaS廠商分攤),而現在轉嫁為企業內部成本。然而,從長遠看,培養內部 AI 能力本身也是一種戰略投資:團隊在實踐中將積累對製造業數據與 AI 應用的深入理解,未來可衍生更多創新應用和效率提升。此外,也有第三方 LLMOps 平台服務出現,提供針對開源模型的託管或管理工具(如部分新創提供開源 LLM 的一鍵部署、監控面板等),企業可以考慮採購這類工具來降低內部技術門檻。這種模式下,人力需求介於完全自行構建與完全外包之間:企業付費給平臺廠商獲取便利性,同時保有模型與數據的控制權。例如,有公司推出在客戶自有基礎設施上安裝的 LLMOps 平台,支持從 Hugging Face 一鍵拉取開源模型並自動部署,內建監控與日誌系統,收取訂閱服務費。製造業者可以根據自身 IT 能力決定是完全自建、部分採用商業工具,還是尋求與系統整合商合作來運營這些模型。
  • 規模經濟與模型復用:開源模型的使用有利於企業實現AI 能力的規模經濟。一旦投入訓練出一個適合某項任務的模型,企業內部其他相似任務也可重用該模型或其變種,而無需每次從零開始。比如一家多元產品線的製造企業,可能訓練了一個開源模型來解析製造工藝文件,那麼該模型稍加調整就能應用到不同產線的知識管理。隨著模型庫的擴充,企業內部可以形成模型資產平台,開放給不同部門調用,達成『 一次投入,多次利用』的效果,大幅提高資源利用率和投資回報。同時,開源模型社群的蓬勃發展意味著企業可從社群獲取最新的模型改進成果。例如社群中有人發布了模型的剪枝版、知識蒸餾小模型或各種插件工具,企業可以直接加以利用,而無需自行探索所有優化路線。這種共享效益進一步提升了成本效率。根據 VentureBeat 的觀察,隨著企業對 AI 的理解日益深入,他們傾向於採用開源模型以獲取可持續的高 ROI:因為開源路線讓他們對數據和模型研發投入的產出完全掌控,不會因廠商變更策略而付出額外代價。

綜上,開源 LLM 讓製造業者在營運成本上有了新的優化空間:以一次性的硬體和人力投入,換取長期降低的可變成本與更高的創新自主性。但要真正實現成本效率最大化,也需要企業具備成熟的規劃能力和技術積累,以平衡前期投入與後期收益,並靈活應對運營過程中的各種挑戰。

市場競爭格局

隨著開源大型語言模型的實力日益逼近封閉商用模型,LLM 生態的市場競爭格局正在發生深刻變化。在製造業這類需高度定制化方案的領域,開源 vs. 商用模型之間的競爭與取捨尤為明顯。

首先,從技術表現上看,開源模型正在迅速追趕甚至媲美商用模型。在 2023 年 Meta 的 LLaMA 2 開放模型發布, 啟動了開源 LLM 熱潮。短短幾個月內,社群衍生出各種精調版本(如針對對話的 Alpaca、Vicuna 等),展示了不俗的對話和推理能力。據報導,Meta 公布其開源模型下載量已超過 4 億次,2024 年夏季的使用量在兩個月內就翻了一番。OpenAI 也在近期首度發布開源 GPT 系列(gpt-oss),其 1,200 億參數模型在核心推理基準上幾乎追上了自家小型 GPT-4 系列。Google 的 Gemma 雖然參數規模較小(2B/7B),但因借鑒了先進的 Gemini 技術,在相同比例模型中取得了最佳表現。可以說,如今企業在性能上有越來越多開源模型選項可以替代過去只有 GPT-4 等少數幾家獨佔的局面。

其次在企業採用趨勢上,開源模型正受到大型企業的青睞。VentureBeat 於 2024 年末對多家企業領袖的訪談顯示,企業擁抱開源 LLM 的動機包括追求對技術的更大控制權、深度客製化能力以及成本效率等。封閉模型如 GPT-4 雖然在早期佔據優勢,但開源模型迅速縮小差距,企業界的採用增長速度至少與封閉模型相當。尤其是對於製造業這種資料敏感且需求多樣的行業,開源模型提供的靈活性極具吸引力。很多企業管理者擔心過度依賴單一廠商的封閉 AI 服務會導致供應商鎖定(vendor lock-in)和創新受限。Groq 公司執行長曾直言:「開放最終會勝出,因為大多數人都擔心供應商鎖定問題」。這種心態正在推動企業 IT 策略從完全依賴商業 SaaS,轉向至少部分引入開源方案來打造自主的 AI 平台。

再次,在生態系統與軟體供應商方面,我們看到了市場格局的調整。傳統企業軟體巨頭開始將開源 LLM 整合進他們的平臺,以滿足企業客戶需求。例如 Salesforce 在 2024 年推出了 AgentFlow(原稱 Agentforce),允許客戶在 Salesforce CRM 平台中插入任何第三方 LLM 作為 AI 助手。這實際上讓使用開源模型變得和使用內建商業模型一樣方便,大幅增加了開源模型的可及性。Slack 也緊隨其後開放了自定義模型接入的功能。甲骨文(Oracle)則宣佈全面支援最新的 LLaMA 模型在其雲上運行。甚至雲服務龍頭 AWS 在砸下重金投資封閉模型公司 Anthropic 的同時,也在其 Bedrock 服務中廣納開源模型,強調要為客戶提供盡可能多的模型選擇。這些動作表明,大型供應商不再將自研封閉模型作為唯一選項,而是轉向一種開放的平臺策略,擁抱開源生態,以防止客戶流失。同時,新創公司和開源社群也持續推出針對垂直領域的模型,與大模型公司的通用模型形成差異化競爭。例如 Hugging Face 社群中出現了一些專注工業/製造領域的指令微調模型(可能基於 LLaMA2 等),提供更貼合工業知識的對話能力,瞄準那些覺得通用模型「不接地氣」的工業客戶。

以下我們通過一個簡明的表格,總結開源模型與商用封閉模型在企業應用中的主要差異,藉此瞭解市場競爭格局的變化:


從上述比較可以看出,開源與封閉模型各有優劣。在市場競爭層面,我們觀察到開源模型因其成本和靈活性優勢,正迅速成為企業,特別是製造等傳統行業的「新寵」。然而,封閉模型公司並未退出競爭舞台,而是強調它們在模型品質(特別是某些極高難度任務上的表現)以及企業級服務上的優勢,試圖穩住對那些要求極高精度且不介意成本的客戶的吸引力。因此,未來相當長一段時間內,混合生態將是常態:企業會根據任務特性,在開源與商用模型間動態選擇。比如在一般性對話或已知領域問題上使用開源模型,在超前沿研發問題或需要多模態能力時調用頂尖封閉模型。商用模型廠商也可能通過推出定制版本或行業專版來迎合市場,例如某些廠商已提供「製造業專用AI模型」服務,聲稱結合了自家大模型與行業知識。這實際上也是對開源模型崛起的一種回應:封閉模型開始垂直化以維持競爭力。

封閉模型開始垂直化以維持競爭力

總而言之目前 LLM 的市場格局正朝著開源與商用並存、競合的方向發展。對製造業用戶來說,這是一大利好消息:更多元的選擇意味著更高的議價空間和創新可能。正如 McKinsey 的調查所指出,越來越多企業將開源 AI 納入技術組合,視其為實現 AI 民主化和降低成本風險的重要策略。可以預見,在未來的競爭中,無論是開源還是商用陣營,都將更注重為企業客戶提供量身定制的解決方案與可靠的支持服務。這將促使市場朝著有利於終端用戶的方向演進:更開放透明、更高性能價格比,以及更貼近行業需求的 AI 產品百花齊放。

商業模式的轉變

大型語言模型領域開源潮流的興起,不僅影響技術選型,也正在推動 LLMOps 生態中的商業模式轉型。對於提供 LLM 相關服務的 SaaS 廠商,以及採用這些服務的製造業企業,傳統的商業模式正在發生以下幾方面的改變:

  • SaaS 收費模式調整:過去,主流的商業模型通常採按使用量(如 API 調用次數或生成字數)計費。然而,當企業可利用強大的開源模型自建服務後,他們對這種按次付費的高額成本產生了抗拒心理。SaaS 提供商為留住客戶,開始探索更彈性的收費模式。例如,一些雲服務商推出訂閱制的模型託管服務:企業支付固定月費,便可在專屬環境中不限次數地使用某開源模型,Cloud 廠商負責提供算力和基本維護。這種模式有點類似過去軟體授權的「包年費」,企業喜歡其成本可預期,供應商則以服務價值(如高可用保障、便利性)而非模型本身來定價。另一種趨勢是基礎設施收費取代模型能力收費:雲廠商可能免費提供多種開源模型供客戶使用,而將重點放在收取底層算力資源費用。例如 AWS Bedrock 允許客戶調用包含開源模型在內的模型集,但計費主要根據底層實際用到的計算/存儲資源,而非模型本身授權費。這某種程度反映了模型商品化之後,算力和運維才是服務商主要的盈利點。
  • 模型託管 vs. 自建:開源模型的成熟使企業面臨一個新抉擇:是使用他人提供的模型託管服務,還是自行部署模型?傳統上,由於缺乏可自行掌控的高品質模型,企業只能採用雲端廠商的封閉模型 API(等於託管於對方的雲)。現在,不少企業開始嚐試自建模型服務,特別是在製造業這類對資料敏感且已有一定 IT 基礎的行業。他們購置或租用 GPU 服務器,在內部部署經開源模型微調後的推論服務,以避免外部依賴。這種自建方式類似於「模型自有,雲端代管」:模型是企業自己的開源模型,但運行在雲端基礎設施(可能是企業自己的私有雲)上,由企業 IT 人員維護。相比之下,傳統模型託管 SaaS 則是「模型他有,服務代用」。兩者的界線開始模糊。一些 SaaS 供應商順應此趨勢,提供混合雲部署選項:允許他們的平臺軟體部署到客戶環境運行開源模型,依然按訂閱收費,但模型本身和數據都留在客戶端(例如許多資料隱私要求高的客戶可採用這種「on-premise SaaS」形式)。這實質上把 SaaS 變成了軟體授權模式,只是用訂閱來交付持續升級和技術支持。對製造業者而言,這種模式帶來了兩全其美的好處:既可掌控模型與數據,又能享受專業團隊提供的便利工具與支持,不必完全依賴自身人力完成所有細節工作。
  • 價值鏈定位的改變:在開源模型興起之前,最大價值點在於擁有頂尖模型本身。但現在模型的可及性大大提升,差異化價值開始轉向其他環節。例如,SaaS 廠商可能將重心從提供模型本身,轉為提供完善的周邊服務:包括高可靠的部署管道、專業的領域微調服務、安全稽核、性能最佳化、以及與企業現有系統的深度整合等。在製造業,這可能代表為一些專注此領域的供應商,不售賣模型,而是售賣解決方案:如「工廠知識庫智能問答系統」,背後用的是開源模型,但他們負責把模型與工廠 PLM(產品生命周期管理系統)、MES(製造執行系統)等打通,並針對行業術語做好優化,然後按方案收費。這種應用層的商業模式愈發普遍。開源模型降低了 AI 應用的技術門檻,更多傳統工業自動化廠商、ERP 供應商也開始將 AI 功能作為增值服務嵌入其產品,提升整體價值。例如西門子、Rockwell 等工業巨頭與 AI 公司合作,將開源 LLM 融入他們的工業軟體中,提供生產線的智慧指導、異常分析報告生成等功能,作為新的高階模組來銷售。
  • 社群與商業共生: 開源模式的繁榮還催生了社群與商業的新互動。企業越來越主動參與開源社群,以把握技術走向並吸引人才。他們可能開放部分自研的模型工具或公開訓練數據,反饋社群,同時從中受益加速研發。商業公司亦可能採取開源加上商業授權雙軌策略:例如先開源一個較小模型建立生態,對更高級的模型才採許可授權,但允許客戶在自有環境中運行,以此兼顧社群影響力和盈利。OpenAI 在 gpt-oss 系列推出時就明確提供 Apache 2.0 許可,鼓勵各方自由使用,同時宣稱這些模型與其商業 API 能互補,讓用戶視需求選擇性能 vs. 成本的平衡。這種策略說明開源與商業未必是水火不容,而是形成一種漏斗效應:開源產品擴大了用戶群體,商業服務則可定位在更高階的需求上(如更大模型規模或定製服務),最終整個用戶基數與市場規模都被推高。

開源大型模型在製造業 LLMOps 生態中的影響,不僅體現在技術層面,也強烈衝擊著商業模式。製造業的終端用戶現今擁有前所未有的自主選擇權和議價能力:他們可以自行部署模型,也可以要求服務商提供混合式解決方案。在此驅動下,LLMOps 領域的企業需要重新定位,自問能為客戶提供的獨特價值是什麼:是更好的模型效果?還是更全面的服務支援?或是更方便的整合平臺?那些能順應開源潮流、調整商業模式以滿足客戶新期望的供應商,將在新的競爭格局中勝出。對製造業而言,這場變革最終有望帶來更經濟、高效且量身定制的 AI 工具,加速整體行業向智慧化轉型。

暫時下個句點

開源大型語言模型的成熟,正全方位地影響製造業對 LLM 技術的應用方式。在模型訓練與部署方面,企業能夠利用開源模型深度融入自身專業知識並靈活部署在本地環境,滿足了製造現場對低延遲、高隱私的特殊要求。推論服務的優化也因開源生態的各種創新而大幅提升,通過批量處理、量化精簡等技術實現了高效且具成本效益的推理。為了駕馭多元的模型和數據,企業建立了完善的資源管理與版本控制流程,確保模型迭代可控、安全可靠地融入生產流程。在安全性上,自主可控的模型使製造業者能更好地保護機密資料,同時必須承擔模型內容治理的新責任。營運和成本方面,越來越多證據表明開源路線可以帶來更高的長期 ROI,因其降低了使用成本並避免了廠商鎖定,雖然企業需要投入初始資源但收穫了技術自主權。

市場格局正在向開源傾斜(?),開源與商用模型在企業級市場上呈現出激烈的競爭與共生局面。製造業應用場景的特殊性(高度客製化需求和資料敏感性)使得開源模型對它們更具誘惑力,而商用服務商也正調整策略以融入開源元素。這種競爭最終催生了新的商業模式:從傳統的 API 計費轉向軟體訂閱、混合部署,以及從銷售模型轉向提供整體解決方案的價值服務。

對製造業企業而言,這些變化絕對是項全新的機遇。如今,他們可以更低成本地獲取先進的語言智能,並針對自身場景加以塑造,釋放數據價值。如同 Databricks 所說,開源 LLM 提供了一條可持續創造價值的途徑:企業可以保有數據和智慧財產的控制權,靈活地將模型優化到自家行業場景,並構建可隨業務成長而擴展的架構。然而,挑戰也不容忽視:模型的準確性與可靠性要求更高的保障措施、人員技能的提升、以及新舊模式融合期的決策取捨,都需要審慎管理。

總體而言開源大型語言模型為製造業帶來了實務創新的跳板,可以預期在製造領域會湧現更多結合開源 LLM 的應用創新,如智慧製造助理、知識型協作機器人、供應鏈優化 AI 顧問等,幫助企業提升效率、降低成本並增強競爭力。在善用這些機會的同時,製造業者也將逐步建立起內生的 AI 能力,促進組織的數位化轉型走向深入。可以說開源 LLM 所引領的變革才剛剛開始:掌握先機並積極探索的企業,將在未來的智慧製造版圖中佔據更加有利的位置。革新之路雖有挑戰,但蘊藏的價值與潛能足以驅動製造業走向更智慧的下一階段。

參考資料

Leave a Comment

Your email address will not be published. Required fields are marked *