当你的算法拒绝了客户,如何取悦他们?
作者:Pavel Kireyev
2020-10-21
摘要:没有人喜欢听到“电脑说不”。但是,对于算法驱动的拒绝,可能有比你想象的更多的透明化方式。

从客户的角度来看,唯一比被拒绝产品或服务更令人沮丧的是,当这种拒绝没有得到满意的解释。作为人类,我们处理失望的能力取决于了解它发生的原因。如果没有一个可接受的理由,我们很容易假设最坏的情况:故意不尊重,盲目的偏见,等等。

消费者心理学的这一方面可能会给依赖决策算法进行审核、防欺诈和一般客户服务的公司带来问题。我们看到人工智能在营销和金融服务等领域的应用越来越广泛。总的来说,这是一个好消息,让企业能够以前所未有的速度和预测精度为客户服务。然而,虽然机器人在大规模的准确决策方面击败了人类,但它们的沟通技巧(无论如何,到目前为止)还有很多需要改进的地方。随着算法作为守门人的作用越来越突出,被拒绝的客户将到哪里去寻求一个充分的解释?公司如何才能在不透露太多关于其专有算法的情况下提供解释,而这些算法往往是重要的知识产权?

太多的公司还没有认真思考这些问题,但政策制定者们已经在思考了。欧盟《通用数据保护条例》第13至15条要求使用自动决策的公司向客户提供“关于相关逻辑的有意义信息”。对于普通的决策树算法来说,确定什么是“有意义的信息”已经够滑稽的了。随着“深度学习”神经网络等更复杂的工具获得更广泛的商业应用,算法本身的复杂过程可能难以解释。

我们最近的工作论文提出,公司可以也应该对用户更加透明,既可以在出于商业或法律原因不想透露算法的运行方式,也可以在因算法复杂而无法向普通人解释的情况下透露。根据有史以来对算法可解释性进行的为数不多的实地实验之一以及一些实验室研究,我们发现,关于算法的目的或目标的信息(研究人员称之为心学解释)对被拒绝的消费者来说,与了解算法的工作原理(所谓的机械学解释)一样有意义。

解释与电子商务

我们与一家电商平台合作,该平台使用算法来决定是否应该完成交易。我们特别关注了一个决定买家账户中是否有足够资金的算法。所谓的“精英用户”,根据过去的购买数据,算法认为这些用户非常值得信赖,在假定他们会及时充值的情况下,可以允许他们继续交易。

在16399笔被拒绝的交易样本中,每七笔被拒绝的购买(平均金额:约164美元),我们就会丰富提供给客户的无信息标准信息(“公司已经阻止了这次购买。公司因客户相关问题而阻止了该笔购买。”),增加了“公司阻止这种购买是为了保证客户的经济利益”

我们增加这种简单的心态解释的目的是评估其对客户行为的影响。我们的推理是,如果没有解释,用户对拒绝的刺痛的直接补救措施就是向客户支持提出询问。事实上,每一个收到基线信息的被拒绝客户都会这样做。相比之下,那些被告知决定目的的用户向客户支持部门投诉的可能性降低了7.4%--这也是我们首次表明这样的解释使拒绝更容易被接受。

除此之外,对于被告知决定目的的组别,由此产生的客户服务咨询的平均解决时间(即咨询结束前的总时间)缩短了近两个小时。这表明,我们简短的目的解释说明能有效地将被拒绝者的负面情绪反应降低到更可控的水平,而不会增加客服的预期工作量。更重要的是,我们还发现,在收到这种解释的人中,购买完成率并没有下降,尽管他们联系客户支持的可能性降低了。令人惊讶的是,一个简单的、不需要成本的干预措施--即使是以一种不具体的方式解释一个决定背后的目的--如何影响客户行为,使客户和公司都受益。

第二次机会

不过,机制学解释(与如何做出决定有关)比心学解释有一个很大的优势。它们给被拒绝的消费者一个更清晰的线索,让他们知道下次可以做什么不同的事情。在随后的一项在线实验中,我们发现,当参与者被即时告知(即大概由算法告知)他们在视觉感知测试中出错的地方,并被给予重做测试的机会时,他们不仅更有可能使用第二次机会,而且还发现这种体验更令人满意--与那些没有得到解释或一般心智学解释的人相比。然而,在没有第二次机会的情况下,参与者认为这两种类型的解释都同样令人满意,更不用说比完全没有解释要好。

深入挖掘

接下来,我们研究了为什么当消费者无法补救服务拒绝时,这两种截然不同的解释品种在心理上同样令人满意。我们的假设是,用户倾向于认为它们同样公平。使用同样的视觉感知测试装置,我们在实验结束时增加了一组令人惊讶的问题,将其定格为额外的工作,对不便之处不作任何解释,提供一个中性的心学解释,提及我们的科学目的,或者提供一个不公平的解释,说明某些参与者被挑出来,在没有额外报酬的情况下进一步利用他们的劳动。

不出所料,中立的解释比不公平的解释更令人满意。更反常的发现是,即使是不公平的解释也比没有解释要好。

在第四个也是最后一个实验中,我们改变了对额外问题的解释。所有三种解释都为额外的工作提供了一个心智学上的“为什么”,但要么搭配一个关于算法如何选择一些用户而不是其他用户的直接机械解释,要么搭配一个不透明的解释,提到“一个无法解释的复杂的黑盒子算法”,要么根本没有机械解释。参与者认为黑箱解释是这三种解释中最不满意和最不公平的。有意思的是,尽管后者的内容非常具体,而前者的内容相对空洞,但只有心智论的解释和直接的机械论解释被评为同样公平和满意。

伦理上的模糊性

我们意识到,我们的研究提出了潜在的道德问题。我们的研究结果表明,公司不需要详细解释他们的算法是如何工作的,以满足被拒绝的客户--专注于算法的目标的解释似乎就足够了。这可能为不太坦诚的公司提供了一个透明度的变通方法。然而,这也可以被解释为提供了更灵活的方式来实现透明度。

毕竟,从我们的研究中得出的最强烈的发现是,提供一个能传达算法决定的目的性和公平感的解释,比完全不提供解释要好。有时,它与解释算法如何工作的细节一样有效。这应该让公司放心,他们的用户对尊重公平性需求的沟通是有反应的,即使被算法拒绝后也是如此。因此,使用黑箱、无法解释的算法,并不是忽视客户对解释的需求的借口。一如既往,人情味是最重要的。正如我们的研究表明,这对公司来说是没有成本的。

热门文章