随着人工智能(Artificial intelligence,AI)日益渗透到人类生活的方方面面,AI是否需要监管的话题尽管充满争议,但未必会贻笑大方。最近,美国会计软件公司黑线(BlackLine)委托Censuswide进行的一项调研显示,随着人工智能软件变得越来越复杂,财务和会计部门正在经历着根本性的变化:超过一半的受访者表示,这项技术使他们能够在不需要人工干预的情况下完成应付账款和应收账款的工作。
这只是当今人工智能对金融业影响力大幅扩容的缩影之一。随着科技的进步,人工智能不再是底层数据收集与分析,它甚至能代替人类作出相应的财务和投资中的关键性决策,由此带来的道德和法律挑战也开始吸引有识之士的目光。
事实上,监管者对智能技术的关注由来已久。在上世纪60年代和70年代,金融业开始依赖复杂的统计数据建模和巨大的计算机数据库进行信用决策,用以批准或拒绝贷款给借款人。
1970年夏天,《新闻周刊》刊登了一篇题为《隐私》的封面故事,引发社会广泛关注,凸显出智能技术在人类社会中所蕴含的风险问题。1974年,美国监管者通过《平等信用机会法》等法规,要求金融公司在采用智能技术时减少对少数群体的信贷歧视,同时增强消费者对相关模式的理解能力。
从严格意义上说,这并不属于人工智能监管的范畴。即便在几十年后的今天,全球远未就人工智能是否需要监管达成共识,许多业内专家甚至在如何界定人工智能方面都莫衷一是。最新的人工智能研究报告在对其进行定义时,只是将之宽泛地描述为“一个广泛的技术组合,但传统上仍旧依赖人类能力”。而从实践来看,虽然人工智能通常也被看成一系列软件的相互集合,有也观点认为人工智能应当不仅仅是一种算法和技术,它能部分取代人类决策意味着它的内涵应当更为广泛,其所带来的威胁和挑战将大于人们的想象。
虽然谈及规范人工智能立法可能为时尚早,但对于人工智能在金融和社会领域中运用所蕴含的风险,全球监管者并非后知后觉。据《科技日报》报道,去年,中国人民银行、证监会等五部门发布《关于规范金融机构资产管理业务的指导意见》,用大量篇幅划定可能到来的资产管理智能投顾框架。该指导意见指出,金融机构运用人工智能开展资产管理业务时要严格遵守有关投资者适当性、投资范围、信息披露、风险隔离等一般性规定。
据悉,美联储实施了一项名为SR11-7的规定,该规定主要是为了化解人工智能等复杂算法在银行的运用中所带来的风险。SR11-7对算法周期的每个阶段,包括使用数据、相关模型以及模型下的假设场景等进行彻底检查。去年12月也被视为美国人工智能监管的一个重要月份。当月,《未来人工智能法案》出炉,这是美国第一部仅仅关注人工智能的联邦法案,法案要求创建一个咨询委员会,该委员会将提出有关人工智能的相关建议,这些建议包括科技对美国劳动力以及隐私保护的影响等。随后,纽约市议会通过了一项史无前例的法案,这项法案一旦被签署成为法律的话,人工智能中自动决策系统的使用将受到新创建的专门工作组的审查,其审查的最终目的是令相关算法的使用更加公平和透明。





