用户体验是构建应用程序时非常重要的一个方面。用户需要能够高效地使用您的应用程序来完成任务。效率是一方面,但您还需要设计应用程序,使其可以被所有人使用,从而使其具有_可访问性_。本章将重点关注这一领域,希望您最终设计出人们可以并愿意使用的应用程序。
用户体验是用户如何与特定产品或服务(无论是系统、工具还是设计)互动和使用的方式。在开发 AI 应用程序时,开发人员不仅关注确保用户体验的有效性,还要关注其道德性。在本课中,我们将介绍如何构建满足用户需求的人工智能(AI)应用程序。
本课将涵盖以下领域:
- 用户体验介绍和用户需求理解
- 设计可信任和透明的 AI 应用程序
- 设计协作和反馈的 AI 应用程序
完成本课后,您将能够:
- 理解如何构建满足用户需求的 AI 应用程序。
- 设计促进信任和协作的 AI 应用程序。
花点时间阅读更多关于用户体验和设计思维的内容。
在我们虚构的教育初创公司中,我们有两个主要用户,教师和学生。每个用户都有独特的需求。以用户为中心的设计优先考虑用户,确保产品对其目标用户具有相关性和益处。
应用程序应有用、可靠、可访问且令人愉悦,以提供良好的用户体验。
有用意味着应用程序具有与其预期用途相匹配的功能,例如自动评分过程或生成用于复习的闪卡。能够自动评分的应用程序应该能够根据预定义的标准准确且高效地为学生的作业评分。同样,生成复习闪卡的应用程序应该能够基于其数据创建相关且多样化的问题。
可靠意味着应用程序能够始终如一地执行任务且没有错误。然而,AI 就像人类一样并不完美,可能容易出错。应用程序可能会遇到需要人工干预或纠正的错误或意外情况。您如何处理错误?在本课的最后一部分,我们将介绍如何设计 AI 系统和应用程序以进行协作和反馈。
可访问意味着将用户体验扩展到具有各种能力的用户,包括残疾人,确保没有人被排除在外。通过遵循可访问性指南和原则,AI 解决方案变得更加包容、可用并对所有用户有益。
愉悦意味着应用程序使用起来令人愉快。吸引人的用户体验可以对用户产生积极影响,鼓励他们回到应用程序,从而增加业务收入。
并不是每个挑战都可以用 AI 解决。AI 的出现是为了增强您的用户体验,无论是自动化手动任务,还是个性化用户体验。
在设计 AI 应用程序时,建立信任至关重要。信任确保用户相信应用程序能够完成工作、始终如一地提供结果,并且结果是用户所需的。在这一领域的风险是缺乏信任和过度信任。缺乏信任发生在用户对 AI 系统几乎没有或没有信任时,这会导致用户拒绝您的应用程序。过度信任发生在用户高估 AI 系统的能力时,导致用户对 AI 系统过于信任。例如,在自动评分系统的过度信任情况下,可能会导致教师不仔细检查某些论文,以确保评分系统正常工作。这可能导致学生的成绩不公平或不准确,或者错失反馈和改进的机会。
确保信任在设计中占据核心位置的两种方法是可解释性和控制。
当 AI 帮助做出决策,例如向后代传授知识时,教师和家长理解 AI 决策的方式至关重要。这就是可解释性 - 理解 AI 应用程序如何做出决策。设计可解释性包括添加 AI 应用程序可以做什么的示例细节。例如,系统可以使用:“使用 AI 总结您的笔记以便更轻松地复习”,而不是“开始使用 AI 教师”。
另一个例子是 AI 如何使用用户和个人数据。例如,具有学生身份的用户可能会根据其身份受到限制。AI 可能无法揭示问题的答案,但可以帮助指导用户思考如何解决问题。
可解释性的最后一个关键部分是简化解释。学生和教师可能不是 AI 专家,因此对应用程序可以或不能做的事情的解释应简化并易于理解。
生成式 AI 创建了 AI 和用户之间的协作,例如用户可以修改提示以获得不同的结果。此外,一旦生成了输出,用户应该能够修改结果,从而获得一种控制感。例如,在使用 Bing 时,您可以根据格式、语气和长度调整提示。此外,您可以对输出进行更改并修改输出。
Bing 的另一个功能是允许用户控制应用程序的功能,即选择加入和退出 AI 使用的数据。对于学校应用程序,学生可能希望使用他们的笔记以及教师的资源作为复习材料。
在设计 AI 应用程序时,故意性是确保用户不过度信任并对其能力设定不切实际期望的关键。实现这一点的一种方法是通过提示和结果之间制造摩擦。提醒用户,这是 AI,而不是其他人。
如前所述,生成式 AI 创建了用户与 AI 之间的协作。大多数互动是用户输入提示,AI 生成输出。如果输出不正确怎么办?应用程序如何处理错误?AI 是责备用户还是花时间解释错误?
AI 应用程序应该内置以接收和提供反馈。这不仅有助于 AI 系统改进,还能与用户建立信任。设计中应包含反馈循环,一个示例可以是对输出进行简单的点赞或踩。
处理此问题的另一种方法是明确传达系统的能力和局限性。当用户请求超出 AI 能力范围的内容时,也应该有办法处理,如下所示。
应用程序常见的系统错误可能是用户需要 AI 范围之外的信息帮助,或者应用程序可能对用户可以生成摘要的问题/科目数量有限制。例如,使用有限科目数据(如历史和数学)训练的 AI 应用程序可能无法处理地理问题。为此,AI 系统可以给出这样的响应:“抱歉,我们的产品已使用以下科目的数据进行训练.....,我无法回答您所问的问题。”
AI 应用程序并不完美,因此它们注定会犯错误。在设计您的应用程序时,您应确保为用户反馈和错误处理留出空间,以简单且易于解释的方式进行。
查看您迄今为止构建的任何 AI 应用程序,考虑在您的应用程序中实施以下步骤:
-
愉悦: 考虑如何使您的应用程序更令人愉悦。您是否在各处添加了解释?您是否鼓励用户探索?您的错误消息是如何措辞的?
-
可用性: 构建一个 Web 应用程序。确保您的应用程序可以通过鼠标和键盘导航。
-
信任和透明度: 不要完全信任 AI 及其输出,考虑如何在过程中加入人为因素以验证输出。此外,还要考虑和实施其他方法来实现信任和透明度。
-
控制: 让用户控制他们提供给应用程序的数据。实现一种方法,用户可以选择加入和退出 AI 应用程序中的数据收集。
完成本课后,请查看我们的生成式 AI 学习集合,继续提升您的生成式 AI 知识!
前往第 13 课,我们将探讨如何保护 AI 应用程序!
免责声明: 本文档已使用AI翻译服务Co-op Translator进行翻译。虽然我们努力确保准确性,但请注意自动翻译可能包含错误或不准确之处。应将原始文档的母语版本视为权威来源。对于关键信息,建议进行专业人工翻译。我们不对因使用此翻译而产生的任何误解或误读承担责任。