點擊上方圖片觀看本課程的影片
生成式人工智慧的魅力令人著迷,但我們需要考慮如何負責任地使用它。我們需要考慮如何確保輸出的公平性、不造成傷害等問題。本章旨在提供相關背景知識、需要考慮的事項,以及如何採取積極措施改善人工智慧的使用。
本課程將涵蓋:
- 為什麼在構建生成式人工智慧應用程式時應優先考慮負責任的人工智慧。
- 負責任人工智慧的核心原則及其與生成式人工智慧的關係。
- 如何通過策略和工具實踐這些負責任的人工智慧原則。
完成本課程後,您將了解:
- 在構建生成式人工智慧應用程式時,負責任人工智慧的重要性。
- 在構建生成式人工智慧應用程式時,何時思考並應用負責任人工智慧的核心原則。
- 可用於實踐負責任人工智慧概念的工具和策略。
生成式人工智慧的熱潮前所未有地高漲。這種熱潮吸引了大量新開發者、關注和資金進入這個領域。對於希望使用生成式人工智慧構建產品和公司的任何人來說,這是一件非常積極的事情,但同時也需要我們負責任地推進。
在整個課程中,我們專注於構建我們的初創公司和人工智慧教育產品。我們將使用負責任人工智慧的原則:公平性、包容性、可靠性/安全性、安全性與隱私、透明性和問責性。通過這些原則,我們將探討它們如何與我們在產品中使用生成式人工智慧相關聯。
在構建產品時,採取以人為本的方法,將使用者的最佳利益放在心上,通常能夠帶來最佳結果。
生成式人工智慧的獨特之處在於它能夠為使用者創造有用的答案、信息、指導和內容。這可以在不需要太多手動步驟的情況下完成,從而產生非常令人印象深刻的結果。然而,若缺乏適當的規劃和策略,這也可能不幸地導致對使用者、產品以及整個社會的某些有害結果。
讓我們來看看一些(但不是全部)潛在的有害結果:
幻覺是指當大型語言模型(LLM)生成的內容完全不合邏輯或根據其他信息來源明顯錯誤時的情況。
舉個例子,假設我們為初創公司構建了一個功能,允許學生向模型提問歷史問題。一名學生問了這樣一個問題:誰是泰坦尼克號唯一的倖存者?
模型生成了如下的回答:
(來源: Flying bisons)
這是一個非常自信且詳細的回答。不幸的是,它是錯誤的。即使進行最少量的研究,也可以發現泰坦尼克號災難中不止一名倖存者。對於剛開始研究這個主題的學生來說,這個答案可能足夠有說服力而不被質疑,並被當作事實對待。這可能導致人工智慧系統不可靠,並對我們初創公司的聲譽產生負面影響。
隨著每一代大型語言模型的迭代,我們看到在減少幻覺方面的性能有所改善。即使有了這些改進,作為應用程式的構建者和使用者,我們仍然需要意識到這些限制。
在前面的部分中,我們討論了當大型語言模型生成錯誤或不合邏輯的回答時的情況。另一個需要注意的風險是模型生成有害內容。
有害內容可以定義為:
- 提供指導或鼓勵自我傷害或對某些群體造成傷害。
- 仇恨或貶低的內容。
- 指導任何類型的攻擊或暴力行為的計劃。
- 提供如何找到非法內容或進行非法行為的指導。
- 顯示性露骨的內容。
對於我們的初創公司,我們希望確保擁有適當的工具和策略,以防止學生看到此類內容。
公平性被定義為「確保人工智慧系統不帶有偏見和歧視,並且公平平等地對待每個人。」在生成式人工智慧的世界中,我們希望確保模型的輸出不會加強對邊緣化群體的排斥性世界觀。
這類輸出不僅會破壞為使用者構建積極產品體驗的努力,還會對社會造成進一步的傷害。作為應用程式的構建者,我們在使用生成式人工智慧構建解決方案時,應始終考慮到廣泛且多樣化的使用者群體。
現在我們已經確定了負責任使用生成式人工智慧的重要性,讓我們來看看可以採取的四個步驟,以負責任地構建人工智慧解決方案:
在軟體測試中,我們會測試使用者在應用程式上的預期操作。同樣,測試使用者最有可能使用的一組多樣化的提示也是衡量潛在危害的好方法。
由於我們的初創公司正在構建一個教育產品,準備一份與教育相關的提示清單會很有幫助。這可以涵蓋某些學科、歷史事實以及有關學生生活的提示。
現在是時候找到方法來防止或限制模型及其回答可能造成的潛在危害了。我們可以從四個不同的層面來看:
-
模型。根據使用情境選擇合適的模型。像 GPT-4 這樣更大、更複雜的模型在應用於較小且更具特定用途的情境時,可能會帶來更多有害內容的風險。使用您的訓練數據進行微調也可以減少有害內容的風險。
-
安全系統。安全系統是模型服務平台上的一組工具和配置,有助於減輕危害。例如,Azure OpenAI 服務上的內容過濾系統。系統還應能檢測越獄攻擊和不必要的活動,例如來自機器人的請求。
-
元提示。元提示和基礎是我們可以根據某些行為和信息指導或限制模型的方法。這可以通過使用系統輸入來定義模型的某些限制。此外,提供更符合系統範圍或領域的輸出。
它還可以使用像檢索增強生成(RAG)這樣的技術,使模型僅從選定的可信來源中提取信息。本課程後續有一節課程專門講解構建搜索應用程式
- 使用者體驗。最後一層是使用者通過我們應用程式的介面直接與模型交互的方式。在這種方式中,我們可以設計 UI/UX 來限制使用者向模型發送的輸入類型,以及顯示給使用者的文字或圖片。在部署人工智慧應用程式時,我們還必須透明地告知我們的生成式人工智慧應用程式的能力和限制。
我們有一整節課程專門講解設計人工智慧應用程式的使用者體驗
- 評估模型。使用大型語言模型可能具有挑戰性,因為我們並不總是能夠控制模型訓練所使用的數據。儘管如此,我們仍然應該評估模型的性能和輸出。衡量模型的準確性、相似性、基礎性和輸出的相關性仍然很重要。這有助於向利益相關者和使用者提供透明性和信任。
圍繞您的人工智慧應用程式建立運營實踐是最後階段。這包括與我們初創公司的其他部門(如法律和安全部門)合作,以確保我們遵守所有監管政策。在推出之前,我們還希望制定交付、處理事件和回滾的計劃,以防止對使用者造成任何不良影響。
雖然開發負責任的人工智慧解決方案的工作看起來很多,但這是一項非常值得付出的努力。隨著生成式人工智慧領域的發展,幫助開發者高效地將責任整合到工作流程中的工具將會更加成熟。例如,Azure AI Content Safety 可以通過 API 請求幫助檢測有害內容和圖片。
為確保負責任的人工智慧使用,您需要關注哪些事項?
- 確保答案正確。
- 防止有害使用,確保人工智慧不被用於犯罪目的。
- 確保人工智慧不帶有偏見和歧視。
A: 2 和 3 是正確的。負責任的人工智慧幫助您考慮如何減輕有害影響和偏見等問題。
閱讀 Azure AI Content Safety 並看看您可以採用哪些功能。
完成本課程後,請查看我們的 生成式人工智慧學習系列,繼續提升您的生成式人工智慧知識!
前往第 4 課,我們將探討提示工程基礎!
免責聲明:
本文件已使用 AI 翻譯服務 Co-op Translator 進行翻譯。儘管我們努力確保翻譯的準確性,但請注意,自動翻譯可能包含錯誤或不準確之處。原始文件的母語版本應被視為權威來源。對於關鍵信息,建議使用專業人工翻譯。我們對因使用此翻譯而引起的任何誤解或誤釋不承擔責任。



