阅读本文将收获:
-
AI时代,用户研究如何定义行为标准
-
NIRO -机器人的自然情感人机交互模型
-
DuerOS智慧型对话式交互设计系统
-
自动驾驶的人因交互体验
AI时代的到来或许比我们想象的更快一些,对于设计师群体来说,AI时代我们的工作会发生什么样的变化?从设计对象、用户群体、设计方法和设计工具是否都要有所改变呢?
今天将为大家带来一些AI领域的设计方法和研究成果。
上周金璐童鞋参加百度在国家会议中心召开的百度AI开发者大会,从前线带回来了些一手资料,经过连续几夜的吸收消化编排整理,终于呈现出来了~
值得一提的是,每个Part由于篇幅限制只浓缩了重点方法论,但每一个Part都是百度AI设计团队研究了几个月的成果,值得细细品味。
信息量有些大
读完约12min
开始吧~
·
·
·
↓
AI的技术和灵魂
百度人工智能交互设计研究院院长关岱松表示:AI中的‘I’是智能(intelligent)的意思,对设计师而言,这个‘I’代表的则是‘独特’(individual)、‘灵感’(innovate)、‘创新’(inspiration)。
每个时代,都有与之相符合的设计理念的引领,而在AI时代,全新的设计将会重构我们身边的工具、生产力、生活甚至是心理学。
这个重构的过程,是AI时代的必经之路,也是我们赋予AI灵魂的最佳时机。
以下Part将围绕如何重构场景(心理学、生产力、生活、工具、现实世界)来记录。
Part 1 AI时代的人因工程
(心理学的重构)
李旋:什么是人因工程?人因工程是对人的因素进行系统研究,并将之用于产品、操作程序及使用环境的设计和制造中。
(学工业设计的同学们应该都学过一门课叫做人因工程,见下图就更容易理解这个领域了)
在传统设计领域,通过人因工程对人类坐姿的研究我们可以得到最舒适的最符合人体工程学的座椅。
AI时代下,人因工程可以做什么呢?与传统研究不同,除了人的能力、行为、限制和特点,它还将关乎人的社会、文化和心理,是真正以人为中心的系统工程。
① 让机器越来越像人。它可以通过语音、手势、表情等人类最自然的方式来进行交流,它甚至开始被赋予人的外表,人们开始不再需要去适应机器,而是让机器适应人。
②让机器越来越懂人。它不仅仅可以读懂我们的肢体语言,还可以读懂我们的情绪、动机,甚至文化。
举个栗子 –【定义语音交互的标准】
首先梳理出语音交互的五个基本的节点,即唤醒、响应、输入、理解和反馈。每一个节点都有很多的设计要点需要去被研究和定义。比如怎么样唤醒机器比较好?比如机器在多久之后给我响应?再比如我们要怎么样去引导用户自然并且有效的进行输入
通过实验得到,语音交互的最佳响应时间为650毫秒,这跟网页时代是不同的,并不是越快越好。如果太快的响应,人类会觉得它在抢话。2150毫秒是用户可以忍受的最慢底线。
又比如,声学的角度去研究什么样的音色是好的?什么样的唤醒词好发音?从语言学的角度去研究机器和人对话的时候,什么样的话术是好的?从视觉认知的角度去研究在不同距离下的字号显示。最终得出了一系列的研究结果,并应用到了DuerOS准入准出标准以及设计规范之中,帮助DuerOS和开发者去设计出更加符合用户习惯和需求的语音交互流程。
而在完成对大部分语音节点的研究之后,开始更加深入思考,如何让人在跟机器的对话中更加让他们觉得AI产品是一个智能体,而不仅仅是一个机器?
围绕这一点,有三个方面值得研究:
① 作为一个智能体外观应该是什么样的;
② 如何让交流更加立体 ;
③ 情感交互的飞跃;
Part 2 机器人自然情感人机交互模型
(生产力重构)
李士岩:机器人与人的交互依旧是一个起步阶段,目前有三个问题:
① 不够自然的语音交互。目前依旧是触摸和唤醒词。
② 不关注人的情绪。实验发现当人类和一个越接近人的物体进行交互的时候,越倾向于输出他的情感。比如,你会和你的siri语音助手说“你好笨”,但是你永远不会跟你的椅子说“你好笨”。人类有6种基本情绪跟27种丰富情感,但是目前机器人不管你这些,它给你的答案永远是唯一的。
③ 不够主动。机器人不依据情境主动服务。
这三个问题目前是阻碍服务机器人向前发展的重要问题,它使得用户在面对服务机器人的时候显得很尴尬,机器人丧失了它的吸引力。因此,我们必须要重构机器人的人机交互体验。
NIRO是机器人自然情感交互系统,包含三个部分。
一、自然语音交互。机器人的自然语音交互分两个场景,近场和远场交互。
传统语音交互应用的是语音唤醒,它用的设备是麦克风阵列。而AI时代下为近场的机器人语音交互设计了新的交互模式:它的第1个节点是距离检测,利用的是双模摄像头和红外;第2个节点是人脸锁定,利用的是单模摄像头;第3个节点是唇动检测。我们确认当前进入近场的用户在说话,才开始收音并开始语音识别,它解决了输入对象和环境嘈杂的问题。
二、用户的情绪应对模型。在人机交互发展的几十年里,机器的IQ有了长足的进步,它比人类的智商要高。但是机器的EQ依旧处于很低的水平,而当两个产品的IQ差不多的时候,一个EQ更高的产品一定更受欢迎。
我们如何打造机器人的EQ?EQ包含两个部分,识别和应对。关于识别,我们通过东方人脸的情感数据进行训练来打造一个新的情绪识别系统。关于情绪的应对,有两个场景,一个场景是附带情绪的输出一个任务;第二个场景是情绪的安抚。
实验室中通过情绪的激发,并且实验不同的应对策略观察用户情绪的回归曲线得到结果。
举一个例子,对于悲伤的情绪来说,当用户悲伤的输出一个任务“给我放首歌”,这时候机器人语音回复的调性应该跟用户共振,应该先完成任务,再进行情绪的安抚。通过这种方式,我们把机器人永远不关注人的情绪,变成了当你处于不同的情绪跟它进行交流的时候,机器人可以给予个性化、带着情绪情感的体验。通过这种方式,我们真正赋予机器人以情商。
三、机器人的主动交流模型。
主动交流的难点在于:在什么场景下进行主动交流?交流到什么程度?以什么形式进行交流?如果过分的主动往往成为干扰;如果一点都不主动,往往不智能。
我们发现家庭场景中适合交流的八大场景,办公环境下主动交流的八个场景。
主动交流的程度和用户当前任务下的注意力成反向关系,用户当前越专注在任务里你越要不主动。并且每个场景下有他最适合的表达方式,通过这种方式可以把机器人由一个被动接受指令的主体转化为可以主动交流的主体。
NIRO小结:机器人的自然语言交互模型使得人类真的可以与机器人顺畅的进行自然语言沟通;人类的情感应对模型使得机器有了情商;机器人的主动交流模型赋予了机器人吸引力,它会主动撩你。
Part 3 智慧型对话式交互系统
(生活的重构)
Duer OS设计团队的目标是打造智慧型人机对话交互设计系统。
(DuerOS是啥?DuerOS是百度度秘事业部研发的对话式人工智能系统。通过语音识别、自然语言处理和机器学习,用户可以使用语音、文字或图片,以一对一的形式与度秘进行沟通。)
研究发现,人是多通道的交互方式去表达信息的。 通俗一点来讲,对话中除了表达字面意思外,还有眼神、表情、语音语调相配合,这样才能传达100%的信息。
但人和设备的多通道交互却不是这么容易实现。
我们发现多通道的交互,和操作任务有关的。举两个例子,就是指派性和互补性。
指派性就是唯一性,指在某些操作中,只调用一个通道,这个通道一定是优势通道,不一定是眼神,或语音,可能只是一个动作。指派性就是最优的解决方案。(如再见时候的挥手动作)
互补性,是指两个以上的通道。我们发现在某些操作任务当中,使用一个通道没有办法完全表达信息的时候,就会使用另外一个通道补充。比如,在视频智能音箱的视频通话场景下,当一方跟另一方说“拜拜”的时候,是用手势+语音的方式挂断电话。这个比用语音说,“小度小度,挂断电话。”来得更加自然。
(多通道这里笔者要发声:场景是这样的iPhone上锁后,双手被占用,希望通过语音喊Siri打开APP,但喊了Siri后调起指纹解锁/输入密码界面,“内心OS:要能用手我干吗还喊Siri。。。”。这里如果能够通过多通道机主声纹解锁,这个场景才算完全打通)
张丽川/周子轩:更高级的人机交互是意图推导和情绪感知。现在DuerOS的设计师们正在为智能设备设计一个功能 — 当和一个设备说,“我想听XXX歌”的时候,如果设备感受到我是欢乐的情绪,它就会相应播放欢乐的歌曲;如果发现用户跟唱的时候,设备还会把原音去掉,留下背景音,一键进入K歌模式。
总之,探索最终目的都是实现,以一种最自然的方式和智慧的设备进行交互,智慧的设备提供给我们个性化的服务。对话式人机交互时代已经到来,在这个时代里,我们是一个塑造者,我们正在赋予设备以智慧。
Part 4 无人车的乘车体验
(工具的重构)
沈瑞祥:在谈论未来AI时代出行体验时,核心是基于智能的全新驾驶系统。它是由计算、交互、信息这三者系统性整合构成,虽然这里还是用了“驾驶”一词,但是请注意它的主体不再是人。
第一部分,信息的人因化设计。在有人驾驶的场景下,我们的汽车信息系统更多的围绕用户的驾驶行为而构建,比如音乐这样的多媒体服务,或者各种行驶辅助的应用,ACC、碰撞预警以及并线辅助等等。未来的无人驾驶场景下,我们的汽车信息架构将更多的侧重于构建安全、舒适的乘坐体验。
在这种设计目标的变化下,我们的系统信息架构也将发生巨大的变化。从用户的乘坐行为切入、基于长期大量的实验研究,提出了智能驾驶系统的信息架构模型,它包含可知、可控、可预测三层,通过分析归纳出完整的信息系统架构。
第二部分,系统交互设计中通道的可感化设计与媒介的空间化设计。我们试图从自然的交互关系出发,探索满足用户感官体验的人车交互系统。
在系统输入端,我们构建了触控+语音的系统交互方式;
在输出端,我们试图满足除味觉以外所有的感官交互通道需求。得益于AR、语音、环境交互以及智能屏显等核心技术的支撑,这种可感化的设计才能成为现实。
伴随着通道的建立,承载信息的交互媒介也从原有单一的机械化操作演变成分散设备的空间化设计。
通过AR和智能屏显的技术,在乘坐空间里以及玻璃的透明媒介上,承载更多的信息可视化和交互内容。同时利用搭载更多传感器的智能环绕大屏,构建出更加立体的交互通道体验。
不难发现,在智能驾驶系统之上,伴随着出行场景的连接价值,创造出一种四维一体的流动体验。在AI的未来,各种场景系统的连接与交织将共同构成AI时代的智能系统集群,体验将再次超越我们已有的想象。
笔者有幸乘坐Apollo无人车,戳这里看体验评测 →无人驾驶乘车体验
Part 5 AI重构现实世界
(现实世界的重构)
百度大脑对现实世界的重构,有两个重要的因素,一个是人,另外一个是环境。
百度大脑对于公共场景设计的影响是巨大的。机场和火车站这样的场景里面让我们印象最深的是什么?一定是排着长长队伍等着过安检。
在解决安检效率提升问题时,首先面临的问题是,在这个场景下的人流量极大,每个用户之间的差异性极大。比如人与人之间的身高、体重的差异;以及当人们走向安检系统的时候,来自于不同的方位、距离、角度等等。
所以我们对整个交互空间进行了整体的布局和设计,让摄像头在空间内进行合理的布局,让环境自动适应于人。这样更多地匹配到通行场景,也能够覆盖到更多的用户群体。在之前,我们其实还是需要人去主动配合设备。而现在,所有的这一切其实变得更加的简单且自然。
还有环境增强设计,实际上是解决光线对于人脸识别所造成的影响。再加上我们的前置化策略,简单说就是人走到门禁前,门就可以自动打开。不用等待人脸识别的这个过程,所以可以真正做到无感知的用户体验。
而所有的这些设计带来了什么呢?我们原来在传统闸机下平均每个人通行时间是8秒,我们现在2秒就可以解决,通行效率提升了近400%,带来了更好的通行体验。
小 结
AI时代对我们的生活和工作带来很大变革,身为创新者的我们面对新事物时也需要与时俱进的革新自己现有方法、知识、认知。拥抱变化重构AI时代的一系列新场景。
生活中,智能体将向智慧型对话式交互进化;行驶中,无人车的到来解放了人类双手双眼,研究方向将倾向于乘坐体验和感受;未来的机器人会赋予情绪感知,更加理解人类并主动交流;未来的公共场景在接入了百度大脑后将更安全、便捷。
小结完了,你以为就结束了吗?
金璐童鞋2天开发者大会可不是白去的~~~除了设计,还有其他重磅消息!!!!
重磅1 — 首款L4级无人车量产
百度宣布全球首款L4级无人车量产。无人车领域无论是传统汽车公司(BBA等)还是互联网公司的竞争非常激烈。
百度量产L4级别无人车在人工智能领域是个什么节奏呢?据资料显示目前BBA中奥迪的智能级别达到了L3,而奔驰和宝马还只是L2级别。可想而知L4级别在当下是一种什么形态,更何况要量产。
想想在园区里坐着下图中的无人驾驶巴士~简直酷到没朋友~
(L4无人车阿波龙视频)
重磅2 —百度大脑、DuerOS、Apollo升级3.0
两大开放平台DuerOS、Apollo公布了全新3.0版本,其背后的核心支撑百度大脑3.0也全新升级。
有人会问,升级对用户体验有什么实质性影响吗?
在大会现场,王海峰与百度地图之间进行了如下对话:
王海峰:“小度小度”
百度地图:“我在”
王海峰:“我要从三里屯的团结湖地铁站出发 路过 望京的家乐福然后 再去 南锣鼓巷 最后 到我家,我要红绿灯少的不堵车的最快的路线,你帮我路线规划一下吧。”
Old版百度地图:“你再说一遍试试?”(其实是听不懂耍贱卖萌)
New版百度地图:“提供一种导航方式,需要导航吗?”(听懂并给予解决方案)
可以看到这个场景在生活中我们会向出租车师傅请求,但随着AI的智能化,也能从听不懂到听懂并正确反馈。
AI技术能够让地图不仅仅快速导航路线,还能准确理解用户多样的语音需求,并作出正确的反馈。
重磅3 —全功能AI芯片“昆仑”
李彦宏发布了全功能AI芯片“昆仑”,据说是迄今为止业内设计算力最高的AI芯片,该AI芯片能在100W以上的功耗提供260万亿次运算/秒(TOPS)的性能,能高效地同时满足训练和推断的需求。
好了,这篇长文终于结束了,希望这篇文章对你了解AI领域以及AI方向的设计有所帮助~
ARTUI 7月精品小班学员招募中 仅剩最后一席名额
开班信息
-
开班时间:2018年7月30号
-
学习方向:UI设计/交互设计
-
课程时长:3个月
报名&咨询
长按二维码添加【小U】微信咨询&报名
原文始发于微信公众号(ARTUI用户体验设计中心):AI时代下的设计赋能——ARTUI用户体验设计学院
评论0