专栏名称: 人工智能头条
专注人工智能技术前沿、实战技巧及大牛心得。
目录
相关文章推荐
AI前线  ·  创始人梁文锋亲创!DeepSeek ... ·  昨天  
一梦何求  ·  早盘韬略【0227】 ·  昨天  
一梦何求  ·  早盘韬略【0227】 ·  昨天  
新智元  ·  DeepSeek-R2曝5月前上线!第三弹D ... ·  2 天前  
伯益说环保  ·  我们随时可能被淘汰,环评已进入AI时代 ·  2 天前  
伯益说环保  ·  我们随时可能被淘汰,环评已进入AI时代 ·  2 天前  
爱可可-爱生活  ·  突破性的“一步扩散”生成模型 查看图片 ... ·  3 天前  
51好读  ›  专栏  ›  人工智能头条

嘿!即将开始你的第一个AI项目?

人工智能头条  · 公众号  · AI  · 2019-09-24 08:19

正文


近年来,随着AI技术的发展,越来越多的设计师开始为带有AI技术的产品进行设计。本文将会简单提炼为AI做设计中需要注意的要点,以供参考。

1 将用户需求作为出发点

Always start with user needs


如果一个设计的出发点不是实际的用户需求,那么你可能会制作出一个功能强大技术复杂的软件,但这个软件只能解决一个很小,甚至根本不存在的问题。 以用户为中心,这句话确实是老生常谈,但是在AI设计中尤为重要,因为很多设计者会陷入“为了AI而AI”的误区中。

那么什么样的产品适合AI化呢? 什么样的产品又不适合AI化呢? 谷歌设计中心罗列了以下例子可以作为参考。

适合AI化的产品

产品中会为了不同的用户提供不同的信息或内容;

预测未来可能发生的活动;

个性化的内容对用户体验关系重大;


自然语言识别;

在短时间内辨别大量实体(例如在人来人往的监控录像中辨识目标人物);

在某一领域内的顾问机器人



不适合AI化的产品

任务可预测性非常高;

提供的信息是静态的,大多情况下没有任何变化;

发生错误的成本非常大;

对操作透明度要求高的产品;

抢占投入市场的先机或要求控制成本;

一些非常重要的任务,尤其与人身安全相关的


2 了解 AI 的局限性

Know the limits


确认了产品适合AI化之后,了解AI的局限性就尤为重要。AI不是魔法,所以设计者要做的,并不是天马行空的产生一些几十年内技术都无法实现的想法,而是 在现在的技术限制中,最大化的满足用户需求。
2.1 不要将不成熟的AI假装成人类
不是所有用户都知道聊天机器人是有局限的,所以将产品的局限传达给用户是必要的。很多产品在宣传阶段,将自己的AI技术过度夸张、渲染,甚至打出“像真人一样智能”的口号。 这样会导致的结果就是,用户对产品的期待过高。 于是当系统不够智能,无法满足期待的时候,用户就会变得尤为愤怒,对产品的失望也是加倍的。
2.2 给用户一个“退出”的方法
当系统无法正确的完成一个任务的时候,用户需要一个退出的方法。 用户应有拒绝AI所做的推荐、决定或结果的权利。 当AI出错的时候,强制用户与AI进行交互,或者要求用户接受AI所做的决定,会导致用户规避这个产品。这时为用户提供一个退出的方法,就显得尤为重要。
2.3 不要自作聪明
因为AI具有局限性,所以可能频繁出现的情况就是,AI无法提供给用户一个100%正确的结论。这个时候,AI要做的,就是不要自作聪明。
picdescbot可提供图片识别的服务,在它辨别下图的时候,它的读图结果是:一个站在冲浪板上的恐龙:

但是如果查看它的逻辑代码,就会发现,对于恐龙的识别,picdescbot的信度是96%,而对于冲浪板的识别,信度只有 25% 。但是从前端来看,picdescbot给用户的感觉是picdescbot对给出的结果非常自信。

这里可以拿微软做一个对比,依旧是这张图片,依旧被识别为一个站在冲浪板上的恐龙,但是前端是这样呈现的:

“或许是一个站在冲浪板上的恐龙?” 下方同时标记信度26%。这里微软明确地告诉了用户,系统对当前识别并不是非常自信。 将AI的局限巧妙的展示给用户是非常聪明的做法,它规避了可能会产生的责任,更重要的,建立用户的信任感。

3 与用户建立良好的信任关系

The most important thing is to build trust


对于一个AI系统来说,最重要的就是给用户信任感。通常,AI将结果直接提供给用户,用户会根据AI的结果做出一些决定。同时, 用户也想要知道AI提供的答案是如何得出的 ,用户应该有权利看到结果生成背后的逻辑,在此期间,更好的建立信任关系。

3.1 透明化

用户并不喜欢“黑盒子”。用户希望能了解一个推荐是基于怎样的逻辑而产生的。例如下图中亚马逊的例子,用户的主页上被推荐了商品,同时标明了推荐理由是 “价格适宜的礼物” 、“低价珠宝” 。

3.2 以用户的反馈来改善用户的体验

正面的告诉用户,系统接受了来自用户的反馈,是一个可以快速建立信任感的方法。在AI的系统里,则是 告诉用户,当前用户的反馈,会如何影响AI的下一次决定

下图中是一个来自谷歌的例子,这是一个跑步软件,软件推荐给用户一条跑步路线。用户跑完后觉得该路线无趣且毫无挑战性。收到用户的反馈后,系统提示“感谢你的反馈”。这似乎是一个非常常见的交互行为,那么,如何更好的建立用户的信任感呢?

在第二个例子中,还是这个软件,用户依旧觉得该路线无趣且毫无挑战性,而后系统的回应则是“了解!为你找到另一座1.2千米内的山路”, 这时候,系统了解了用户的诉求,并且根据用户的反馈实时改善了用户下一次的体验。

在为AI设计的时候,从设计师到开发人员,人人都知道用户的交互会影响AI的判断,AI是在不断学习的。而这里的重点是 要让用户也知道AI是在不断学习的,由此来建立用户对系统的信任。

3.3 为 AI 产生的结果建立优先级

在为AI系统设计的时候,一个常见的情况就是,系统会返回大量的结果,那么在展示这些结果的时候,就需要建立优先级的机制,来帮助用户更快的做出决定。这个概念非常普遍,例如淘宝的“综合排名”,新闻软件的“Trending News”, 这里不再过多阐述。

3.4 精确度并不是一切

很多模型在产生结果的时候会提供给用户非常精确的数字。这里导致的问题就是 严重增多了的用户大脑处理这个信息的时间成本 。例如,一个房产,预计价格58万3790美元,并不一定比58万3000美元更有价值,尤其是考虑到预估本身的误差值。

将结果以 范围或程度 来呈现可能会是一个更好的办法。比如下面例子中的健康状况,AI提供的是精确的数值,例如75%,但是前端可以用不同的方式来呈现,比起直接显示数字,将健康情况分为“不好,一般,好,非常好”更容易被用户所理解。

3.5 将算法的能力展示给用户

先来讲一个例子,Paul是一个公司的从材料订购人员,某一天,Paul被提醒现在有一种材料即将短缺,为了保证后续的生产工作,需要订购更多的材料。Paul计划购买420吨材料,而这时AI助手提醒,根据以往的三个历史短缺材料的进货记录来看,Paul计划购买的材料已超量,然后对购买材料量进行了推荐 ( 见下图 )。

在这个例子中,AI不仅提供了购买的建议,并且提供了建议的理由,即根据以前的购买历史进行计算。这里面有两个概念值得参考,第一,告诉了用户在建议背后的逻辑,并 展示了算法的可信性 ,建立用户的信任感。第二,一旦用户使用了推荐的方案,就等于对算法进行了正向的反馈。如果(大量)用户拒绝了推荐的方案,则需要提示设计者进行逻辑检查。

4 巧妙地处理错误

Fail gracefully


要谨慎对待第一次系统出现的错误,用户很容易在这个时候对产品失望。同时,出现的错误也是一个机会,如果能把握好这个机会,就能 让错误成为系统进行学习,逐步改进的机会。







请到「今天看啥」查看全文