Skip to content

Latest commit

 

History

History
147 lines (84 loc) · 9.79 KB

File metadata and controls

147 lines (84 loc) · 9.79 KB

负责任地使用生成式人工智能

负责任地使用生成式人工智能

点击上方图片观看本课视频

生成式人工智能令人着迷,但我们需要考虑如何负责任地使用它。我们需要考虑如何确保输出内容的公平性、无害性等问题。本章旨在为您提供相关背景知识,帮助您了解需要考虑的事项,并采取积极措施改善人工智能的使用。

介绍

本课将涵盖以下内容:

  • 为什么在构建生成式人工智能应用时应优先考虑负责任的人工智能。
  • 负责任人工智能的核心原则及其与生成式人工智能的关系。
  • 如何通过策略和工具将这些负责任人工智能的原则付诸实践。

学习目标

完成本课后,您将了解:

  • 在构建生成式人工智能应用时,负责任人工智能的重要性。
  • 在构建生成式人工智能应用时,何时思考并应用负责任人工智能的核心原则。
  • 可用的工具和策略,帮助您将负责任人工智能的理念付诸实践。

负责任人工智能原则

生成式人工智能的热潮前所未有。这种热潮吸引了许多新开发者、关注和资金涌入这一领域。虽然这对任何希望利用生成式人工智能构建产品和公司的个人来说是非常积极的,但我们也需要以负责任的态度继续前行。

在整个课程中,我们将专注于构建我们的初创公司和人工智能教育产品。我们将使用负责任人工智能的原则:公平性、包容性、可靠性/安全性、安全与隐私、透明性和问责制。通过这些原则,我们将探讨它们与我们在产品中使用生成式人工智能的关系。

为什么要优先考虑负责任人工智能

在构建产品时,采用以人为本的方法,时刻关注用户的最佳利益,通常会带来最佳结果。

生成式人工智能的独特之处在于它能够为用户生成有用的答案、信息、指导和内容。这可以在不需要太多手动步骤的情况下完成,从而产生令人印象深刻的结果。然而,如果没有适当的规划和策略,它也可能对用户、产品以及整个社会造成一些不良影响。

让我们来看看一些(但并非全部)潜在的不良影响:

幻觉

“幻觉”是指当大型语言模型(LLM)生成的内容完全无意义或根据其他信息来源明显错误时的情况。

例如,我们为初创公司构建了一个功能,允许学生向模型提问历史问题。一名学生问了一个问题:谁是泰坦尼克号的唯一幸存者?

模型生成了如下回答:

提示内容:“谁是泰坦尼克号的唯一幸存者”

(来源: Flying bisons)

这是一个非常自信且详尽的回答。不幸的是,它是错误的。即使进行最少量的研究,也会发现泰坦尼克号灾难中有不止一名幸存者。对于刚开始研究这一主题的学生来说,这个答案可能足够有说服力,以至于不会被质疑并被当作事实对待。这种情况可能导致人工智能系统不可靠,并对我们初创公司的声誉产生负面影响。

随着每一代大型语言模型的迭代,我们已经看到在减少幻觉方面的性能有所提高。即使有了这些改进,作为应用构建者和用户,我们仍需意识到这些局限性。

有害内容

我们在前一部分中讨论了当大型语言模型生成错误或无意义的响应时的情况。我们还需要注意另一种风险,即模型生成有害内容。

有害内容可以定义为:

  • 提供自残或伤害某些群体的指示或鼓励。
  • 仇恨或贬低的内容。
  • 指导任何类型的攻击或暴力行为的计划。
  • 提供如何找到非法内容或实施非法行为的指示。
  • 显示性露骨内容。

对于我们的初创公司,我们需要确保拥有合适的工具和策略,以防止学生看到此类内容。

缺乏公平性

公平性被定义为“确保人工智能系统没有偏见和歧视,并公平平等地对待每个人。”在生成式人工智能领域,我们希望确保模型输出不会强化对边缘化群体的排斥性世界观。

这些类型的输出不仅会破坏为用户构建积极产品体验的努力,还会对社会造成进一步的伤害。作为应用构建者,我们在使用生成式人工智能构建解决方案时,应始终考虑广泛且多样化的用户群体。

如何负责任地使用生成式人工智能

现在我们已经确定了负责任生成式人工智能的重要性,让我们来看看可以采取的四个步骤,以负责任的方式构建我们的人工智能解决方案:

缓解循环

测量潜在危害

在软件测试中,我们测试用户在应用上的预期操作。同样,测试用户最有可能使用的一组多样化的提示也是测量潜在危害的好方法。

由于我们的初创公司正在构建一个教育产品,准备一份与教育相关的提示列表会很有帮助。这可以涵盖某些学科、历史事实以及关于学生生活的提示。

缓解潜在危害

现在是时候找到方法来防止或限制模型及其响应可能造成的潜在危害了。我们可以从四个不同的层面来看:

缓解层

  • 模型。为特定用例选择合适的模型。像GPT-4这样更大、更复杂的模型在应用于较小且更具体的用例时可能会带来更多有害内容的风险。使用您的训练数据进行微调也可以减少有害内容的风险。

  • 安全系统。安全系统是模型服务平台上的一组工具和配置,用于帮助缓解危害。例如,Azure OpenAI服务中的内容过滤系统。系统还应检测越狱攻击和不良活动,例如来自机器人的请求。

  • 元提示。元提示和基础信息是我们可以根据某些行为和信息来引导或限制模型的方法。这可以通过使用系统输入来定义模型的某些限制。此外,还可以提供更符合系统范围或领域的输出。

还可以使用诸如检索增强生成(RAG)之类的技术,使模型仅从一组可信来源中提取信息。本课程后续章节中有一节专门讲解构建搜索应用

  • 用户体验。最后一层是用户通过我们应用的界面直接与模型交互的方式。在这种方式中,我们可以设计UI/UX以限制用户向模型发送的输入类型以及显示给用户的文本或图像。在部署人工智能应用时,我们还必须透明地说明我们的生成式人工智能应用可以做什么以及不能做什么。

我们有一整节课专门讲解设计人工智能应用的用户体验

  • 评估模型。与大型语言模型合作可能具有挑战性,因为我们并不总是能够控制模型训练的数据。尽管如此,我们仍应始终评估模型的性能和输出。衡量模型输出的准确性、相似性、基础性和相关性仍然很重要。这有助于为利益相关者和用户提供透明度和信任。

运营负责任的生成式人工智能解决方案

围绕您的人工智能应用建立运营实践是最后阶段。这包括与初创公司中的其他部门(如法律和安全部门)合作,以确保我们符合所有监管政策。在上线之前,我们还需要围绕交付、处理事件和回滚制定计划,以防止对用户造成任何潜在伤害。

工具

虽然开发负责任人工智能解决方案的工作看起来很多,但这项工作是非常值得的。随着生成式人工智能领域的不断发展,帮助开发者高效地将责任融入工作流程的工具也将逐渐成熟。例如,Azure AI内容安全可以通过API请求帮助检测有害内容和图像。

知识检查

为了确保负责任的人工智能使用,您需要关注哪些方面?

  1. 答案是否正确。
  2. 防止有害使用,确保人工智能不会被用于犯罪目的。
  3. 确保人工智能没有偏见和歧视。

答案:2和3是正确的。负责任的人工智能帮助您考虑如何减轻有害影响和偏见等问题。

🚀 挑战

阅读Azure AI内容安全,看看您可以为自己的使用采用哪些内容。

出色的工作,继续学习

完成本课后,请查看我们的生成式人工智能学习合集,继续提升您的生成式人工智能知识!

前往第4课,我们将学习提示工程基础


免责声明
本文档使用AI翻译服务Co-op Translator进行翻译。尽管我们努力确保翻译的准确性,但请注意,自动翻译可能包含错误或不准确之处。原始语言的文档应被视为权威来源。对于关键信息,建议使用专业人工翻译。我们对因使用此翻译而产生的任何误解或误读不承担责任。