對所有 AI 應用程式來說,一個重要的問題是 AI 功能的相關性,因為 AI 是一個快速演進的領域,為了確保您的應用程式保持相關性、可靠性和穩健性,您需要持續監控、評估並改進它。這就是生成式 AI 生命週期的用武之地。
生成式 AI 生命週期是一個指導您開發、部署和維護生成式 AI 應用程式各階段的框架。它幫助您定義目標、衡量效能、識別挑戰並實施解決方案。它也幫助您使應用程式符合您領域和利害關係人的倫理與法律標準。透過遵循生成式 AI 生命週期,您可以確保您的應用程式持續提供價值並滿足使用者需求。
在本章中,您將會:
- 了解從 MLOps 到 LLMOps 的範式轉移
- LLM 生命週期
- 生命週期工具
- 生命週期指標化與評估
LLM 是人工智慧武器庫中的新工具,它們在應用程式的分析和生成任務中非常強大,但這種力量對我們如何簡化 AI 和傳統機器學習任務帶來了一些影響。
因此,我們需要一個新的範式,以動態且具正確激勵的方式適應這個工具。我們可以將較舊的 AI 應用程式分類為「ML 應用程式」,而較新的 AI 應用程式則稱為「生成式 AI 應用程式」或簡稱「AI 應用程式」,反映當時主流的技術和方法。這在多方面改變了我們的敘事,請看以下比較。
請注意,在 LLMOps 中,我們更專注於應用程式開發者,將整合作為關鍵點,使用「模型即服務」並考慮以下指標:
- 品質:回應品質
- 風險:負責任的 AI
- 誠實度:回應的依據性(合理嗎?正確嗎?)
- 成本:解決方案預算
- 延遲:平均回應時間(每個 token)
首先,為了理解生命週期及其變化,請參考下方資訊圖表。
如您所見,這與傳統 MLOps 的生命週期不同。LLM 有許多新需求,如提示工程、提升品質的不同技術(微調、RAG、元提示)、負責任 AI 的不同評估與責任,最後還有新的評估指標(品質、風險、誠實度、成本與延遲)。
例如,看看我們如何構思。使用提示工程來嘗試各種 LLM,探索可能性,測試假設是否正確。
請注意,這不是線性的,而是整合的迴圈,反覆且有一個總體循環。
我們如何探索這些步驟?讓我們詳細了解如何建立生命週期。
這看起來可能有點複雜,先聚焦於三個主要步驟。
- 構思/探索:探索階段,根據業務需求進行探索。原型設計,建立 PromptFlow 並測試是否足夠有效支持假設。
- 建置/增強:實作階段,開始評估較大資料集,實施技術如微調和 RAG,檢查解決方案的穩健性。如果不行,重新實作、在流程中加入新步驟或重組資料可能有幫助。測試流程和規模後,若運作良好並檢查指標,則準備進入下一步。
- 運營化:整合階段,加入監控和警示系統,部署並整合至應用程式。
接著,我們有一個總體管理循環,專注於安全、合規與治理。
恭喜,現在您的 AI 應用程式已準備好運作。想要實作體驗,請參考 Contoso Chat Demo。
那麼,我們可以使用哪些工具呢?
在工具方面,微軟提供了 Azure AI 平台 和 PromptFlow,讓您的生命週期實作更簡單且隨時可用。
Azure AI 平台 允許您使用 AI Studio。AI Studio 是一個網頁入口,讓您探索模型、範例和工具。管理資源、UI 開發流程以及 SDK/CLI 選項,支援以程式碼為先的開發。
Azure AI 允許您使用多種資源,管理您的運營、服務、專案、向量搜尋和資料庫需求。
從概念驗證(POC)到大規模應用,使用 PromptFlow:
- 從 VS Code 設計與建置應用程式,具備視覺化與功能性工具
- 輕鬆測試並微調您的應用程式以達到高品質 AI
- 使用 Azure AI Studio 進行整合與迭代,快速推送與部署
太棒了,現在進一步了解如何結構化應用程式,使用 Contoso Chat App 中的概念,看看雲端推廣團隊如何在示範中加入這些概念。更多內容,請參考我們的 Ignite 專題會議!
接著,請查看第 15 課,了解 檢索增強生成與向量資料庫 如何影響生成式 AI,並打造更具吸引力的應用程式!
免責聲明:
本文件係使用 AI 翻譯服務 Co-op Translator 進行翻譯。雖然我們致力於確保翻譯的準確性,但請注意,自動翻譯可能包含錯誤或不準確之處。原始文件的母語版本應視為權威來源。對於重要資訊,建議採用專業人工翻譯。我們不對因使用本翻譯而產生的任何誤解或誤釋負責。






