当金融业打开人工智能的“黑盒子”



机器学习的功能很强大,但大多数是以“黑盒子”的模式工作。所谓“黑盒子模式”是指我们只能看见它决策的结果,而无法了解这个决策的过程。因此,如果你需要向客户解释人工智能(AI)模型为什么会作出一个决策,这将是一个难题。机器学习近年来点燃了科技界,引起了人们的巨大关注。它大大提高了图像识别、语音识别和机器翻译等领域的准确率,也提升了人们对AI的认可度。


现如今这些技术已经准备进军其他行业,推动它们的革新与发展,这其中包括金融业。我们对深度学习的期望是能够超越人类自己的感知能力。例如,信用卡公司可能将信用记录和其他财务数据提供给深度学习网络,然后对这些数据进行训练,最后识别出信用记录有问题的人员。但进军金融业可能会受到一个重大的阻碍:AI通常不能解释自己作出一个决策的原因,而金融分析师们往往很关注决策的过程。


在Capital One公司,机器学习和数据创新部门的副总裁Adam Wenchel表示,他们希望使用深度学习的各种功能,甚至包括决定信用卡申请者谁可以被签发信用卡。然而事实上他们不能这么做,因为现在的法律要求公司向申请者解释此类决定的原因。去年年底,Capital One创建了一个由Wenchel领导的研究团队,致力于寻找出能够解释AI作出决策的方法。他说:“如今人们已经推出了更先进以及更不透明的模型。该研究是为了确保我们能够保持对AI的高度可解释性。”


过去5年,深度学习非常成功地模仿了人类感知能力。深度学习方法包括:训练一个非常大的人工神经网络来识别数据中的模式。这种方法的灵感来自生物学中突触与神经元的工作方式。虽然每个人工神经元只是一个简单的数学函数,但是这些互连函数的复杂性使得深度网络的推理非常难以展开。也就是说,面对这么庞大的计算量,我们很难完全理解AI的决策过程。


其实有一些其他机器学习技术比深度学习更加透明,它们在某些情况下甚至胜过深度学习。但是,需要对大量数据进行精准分析的金融业,深度学习是非常可靠、实用的,然而同时它也更加不透明,不具可解释性。一些创业公司的目标是承诺研发出更透明的算法,来解决人们对深度学习不可解释性的担忧。


这个问题在未来几年可能会变得更加严重,因为深度学习已经逐渐深入各行各业,因此监管机构可能会将注意力转向算法问责制。从明年开始,根据“一般数据保护条例”,欧盟可能要求所有公司能够解释它们设计的AI是怎样作出决策的。同时这个问题也引起了美国国防部高级研究计划署(DARPA)的关注,DAPRA是一个为美国国防部服务的研究部门。去年,DARPA发起了一个名为“可解释的人工智能”的计划。由这个计划资助的13个项目展现了使AI更加透明的各种方法。


Wenchel说,Capital One正在努力研发出一种基于深度学习的算法,以便更有效地自动监测出信用卡欺诈行为,尽管公司对这个算法的不可解释性仍保持警惕。他说:“金融业是一个被高度监管的行业。我们必须能够告诉客户作出这个决定的缘由。并保证我们是因为正确的原因而作出的这个决定。”


加州大学伯克利分校的教授Trevor Darrell说,深度学习现在非常热门,非常流行,计算机视觉和自然语言处理也因此取得了很大的进步。“但是,深度学习系统却因有时我们很难弄清楚它们内部情况而遭受批评。”对于DARPA项目,Darrell的团队正在研发几种新的深度学习算法,包括结构更复杂、能够同时学习多件事情的深度网络,以及在训练数据中加入一些解释,例如在图像翻译中,当一张图片被分类成“猫咪”时会有一段文字进行解释为什么它会被分类成“猫咪”。同样的方法可以用于检测信用卡欺诈。 Darrell说:“所有这些都让我们能够更深入地了解深度学习网络。”




上一篇:IBM打造自动驾驶巴士,或成… 下一篇:金钱浇铸的传媒巨兽:重利之下…




推荐文章:

谷歌的新野心意欲解决人类死亡问题美国防部搞定硅谷的狗血剧情,堪称一部《五角大楼风云录》软银勾上富士康,两巨头合谋未完成的“美国梦”?想为美国带回制造业就业,这只是一场黄粱美梦?欧盟全球导航系统18颗卫星 将免费对外开放贾跃亭的法拉第未来会以失败告终吗?