(点击上方图片观看本课视频)
用户体验是构建应用程序的一个非常重要的方面。用户需要能够高效地使用您的应用程序来完成任务。高效是一方面,但您还需要设计出每个人都能使用的应用程序,使其具有_可访问性_。本章将重点讨论这一领域,希望您最终能够设计出人们可以使用并愿意使用的应用程序。
用户体验是用户如何与特定产品或服务(无论是系统、工具还是设计)进行交互和使用的方式。在开发人工智能应用程序时,开发人员不仅要确保用户体验的有效性,还要关注其伦理性。在本课中,我们将讨论如何构建满足用户需求的人工智能(AI)应用程序。
本课将涵盖以下内容:
- 用户体验介绍及用户需求的理解
- 为信任和透明性设计人工智能应用程序
- 为协作和反馈设计人工智能应用程序
完成本课后,您将能够:
- 了解如何构建满足用户需求的人工智能应用程序。
- 设计促进信任和协作的人工智能应用程序。
请花些时间阅读更多关于用户体验和设计思维的内容。
在我们虚构的教育初创公司中,我们有两个主要用户:教师和学生。这两类用户都有各自独特的需求。以用户为中心的设计优先考虑用户,确保产品对目标用户来说是相关且有益的。
应用程序应当是有用、可靠、可访问且令人愉悦的,以提供良好的用户体验。
有用意味着应用程序的功能与其预期用途相匹配,例如自动评分过程或生成复习用的闪卡。一个自动评分的应用程序应该能够根据预定义的标准准确高效地为学生的作业评分。同样,一个生成复习闪卡的应用程序应该能够根据其数据创建相关且多样化的问题。
可靠意味着应用程序能够一致且无错误地执行其任务。然而,人工智能和人类一样并不完美,可能会出现错误。应用程序可能会遇到需要人工干预或纠正的错误或意外情况。如何处理这些错误?在本课的最后部分,我们将讨论如何设计人工智能系统和应用程序以实现协作和反馈。
可访问性意味着将用户体验扩展到具有各种能力的用户,包括残障人士,确保没有人被排除在外。通过遵循可访问性指南和原则,人工智能解决方案变得更加包容、可用,并对所有用户都更有益。
愉悦性意味着应用程序使用起来令人愉快。吸引人的用户体验可以对用户产生积极的影响,鼓励他们再次使用该应用程序,并增加业务收入。
并非所有挑战都可以通过人工智能解决。人工智能的作用是增强用户体验,无论是自动化手动任务,还是个性化用户体验。
在设计人工智能应用程序时,建立信任至关重要。信任确保用户相信应用程序能够完成工作,持续交付结果,并且结果符合用户需求。在这一领域的风险是缺乏信任和过度信任。缺乏信任发生在用户对人工智能系统几乎没有或完全没有信任时,这会导致用户拒绝使用您的应用程序。过度信任发生在用户高估了人工智能系统的能力,导致用户过度信任人工智能系统。例如,在自动评分系统中,过度信任可能导致教师不仔细检查部分试卷以确保评分系统的准确性。这可能会导致学生获得不公平或不准确的分数,或者错过反馈和改进的机会。
确保信任成为设计核心的两种方法是可解释性和控制。
当人工智能帮助做出决策,例如向下一代传授知识时,教师和家长了解人工智能如何做出决策至关重要。这就是可解释性——理解人工智能应用程序如何做出决策。为可解释性设计包括添加详细信息,突出显示人工智能如何得出结果。用户必须知道结果是由人工智能生成的,而不是人类。例如,与其说“现在开始与您的导师聊天”,不如说“使用适合您需求的人工智能导师,帮助您以自己的节奏学习”。
另一个例子是人工智能如何使用用户和个人数据。例如,一个具有学生身份的用户可能会根据其身份受到限制。人工智能可能无法直接给出问题的答案,但可以帮助用户思考如何解决问题。
可解释性的另一个关键部分是简化解释。学生和教师可能不是人工智能专家,因此对应用程序能做什么或不能做什么的解释应该简洁易懂。
生成式人工智能创造了人工智能与用户之间的协作,例如用户可以修改提示以获得不同的结果。此外,一旦生成了输出,用户应该能够修改结果,从而获得控制感。例如,在使用Bing时,您可以根据格式、语气和长度调整您的提示。此外,您可以对输出进行修改,如下图所示:
Bing的另一个功能是允许用户控制应用程序使用的数据。例如,在学校应用程序中,学生可能希望使用自己的笔记以及教师的资源作为复习材料。
在设计人工智能应用程序时,确保用户不会过度信任人工智能并对其能力设定不切实际的期望是至关重要的。实现这一点的一种方法是通过提示和结果之间的摩擦来提醒用户,这只是人工智能,而不是一个人类。
如前所述,生成式人工智能创造了用户与人工智能之间的协作。大多数交互是用户输入提示,人工智能生成输出。如果输出不正确怎么办?如果发生错误,应用程序如何处理?人工智能是否会责备用户,还是会花时间解释错误?
人工智能应用程序应该内置接收和提供反馈的功能。这不仅有助于人工智能系统改进,还能建立用户的信任。设计中应包括反馈循环,例如可以在输出上添加简单的点赞或点踩功能。
另一种处理方法是清楚地传达系统的能力和局限性。当用户因请求超出人工智能能力范围而犯错时,也应该有一种处理方式,如下图所示。
系统错误在应用程序中很常见,例如用户可能需要超出人工智能范围的信息,或者应用程序可能对用户可以生成的总结问题/主题数量有限制。例如,一个人工智能应用程序可能仅接受有限学科的数据训练,例如历史和数学,可能无法处理地理相关的问题。为了解决这个问题,人工智能系统可以给出这样的响应:“抱歉,我们的产品仅接受以下学科的数据训练……,我无法回答您提出的问题。”
人工智能应用程序并不完美,因此难免会犯错。在设计您的应用程序时,您应该确保为用户反馈和错误处理留有空间,并以简单易懂的方式进行。
回顾您迄今为止构建的任何人工智能应用程序,考虑在您的应用程序中实施以下步骤:
-
愉悦性: 考虑如何让您的应用程序更具吸引力。您是否在每个地方都添加了解释?您是否鼓励用户探索?您的错误信息是如何措辞的?
-
可用性: 构建一个网页应用程序。确保您的应用程序既可以通过鼠标也可以通过键盘导航。
-
信任和透明性: 不要完全信任人工智能及其输出,考虑如何在流程中添加人工验证输出的环节。此外,考虑并实施其他方法来实现信任和透明性。
-
控制: 让用户控制他们提供给应用程序的数据。实现一种方式,让用户可以选择是否参与或退出人工智能应用程序的数据收集。
完成本课后,请查看我们的生成式人工智能学习合集,继续提升您的生成式人工智能知识!
前往第13课,我们将探讨如何保护人工智能应用程序!
免责声明:
本文档使用AI翻译服务Co-op Translator进行翻译。尽管我们努力确保翻译的准确性,但请注意,自动翻译可能包含错误或不准确之处。原始语言的文档应被视为权威来源。对于重要信息,建议使用专业人工翻译。我们不对因使用此翻译而产生的任何误解或误读承担责任。







