您现在的位置是:LG博客 > 金融科技 >

发展智能金融的九大原则——金融科技观察第16期

2019-05-07 15:55:55136人已围观

  人工智能技术在金融领域的发展如火如荼,人工智能与金融的结合异彩纷呈,创设了非常多样化的金融生态,促进了行业的发展,也带来了诸如伦理上的主体、歧视、黑箱悖论;法律上的所有权、责任归属、监管难题;以及二八分化、失业与行业边界变革等各类问题。

  面对这些问题,我们认为是时候针对金融领域提出发展智能技术的九大原则,从而帮助行业更好、更快的发展。九大原则实际上是三种角色的反映,我们希望技术与金融结合的产物能够扮演至少三个角色:金融生态秩序的守护者、决胜小康三大攻坚战的践行者以及塑造现代化金融监管的推动者。智能金融本质还是金融行业的创新与发展,首要条件是守护健康积极的金融生态秩序。而打赢防范化解重大风险、精准脱贫、防治污染三大攻坚战依赖金融资源的合理配置与运用。智能金融能够更高效的优化资源配置,助力全面建成小康社会。至于从智能金融到智能监管,一步之遥也是殊途同归。智能金融不仅有效促进金融的发展,而且能够帮助监管更高效运作。

  第一,智能金融应当负责任创新(Responsible Innovation)。负责任地创新是智能金融的发展首先要遵从的一般原则。“负责任创新”是广泛用于技术创新领域的发展理论,经过十五年左右的酝酿与发展,已经成为全球技术创新的一项共识。

  例如早在2003年,美国通过的《21世纪纳米技术研究与发展法》就要求相关部门开展纳米技术领域“负责任”发展所需要的标准、指引等问题的研究,并且设立专门中心对“负责任”研究有关的事项进行分析识别。2014年正式启动的欧盟“地平线2020”计划要求社会各个部门(研究人员、公民、政策制定者、商界、第三方机构等)参与者共同努力构建一个“更好连接科学研究、社会需要与预期的欧盟社会”。这条进路有一个专门的名词叫做“负责任的研究与创新”(Responsible Research and Innovation)。该计划来源于创立于1984年的欧盟科研框架计划,地平线2020计划正是该科研框架计划的第八个项目。在我国,2016年的《“十三五”国家科技创新规划》首次明确指出:倡导负责任的研究与创新,加强科研伦理建设,强化科研伦理教育,提高科技工作者科研伦理规范意识,引导企业在技术创新活动中重视和承担保护生态、保障安全等社会责任。

  具体到金融科技创新领域,美国走在了创新发展的前列。从2016年开始,美国货币监理署(OCC)发布了多份报告支持在金融行业尤其是银行业的负责任创新。OCC认为,“金融产品、服务以及流程应当在满足有效风险管理要求和银行整体商业策略的基础上满足消费者、公司以及社区不断变化的需求。”(《支持联邦银行系统中负责任创新:货币监理署的观点》)此后,OCC聚焦银行业负责任创新,2018年7月31日开始允许金融科技公司申请特殊目的银行牌照。在我国,2017年《新一代人工智能发展规划》要求,制定促进人工智能发展的法律法规和伦理规范,首要是“……明确人工智能法律主体以及相关权利、义务和责任等”,尚没有对于金融领域的负责任创新的清晰顶层设计。

  “负责任创新”拥有两层含义。广泛意义上来说,负责任的智能金融应当遵从“内部自我规制,外部多方监督”的全新结构。内部自我规制决定应当如何发展智能金融技术,例如创新主体内部成立自我监管组织(SRO)进行创新决策。外部多方监督意味着负责任创新不能假以一人或者一方,而需要社会各界的共同参与,例如英国皇家艺术制造和商业促进会(RSA)正在尝试用“公民法官”解决人工智能所涉及的犯罪问题和政治争论。而这些都需要在遵循伦理的基础上展开。另外一层含义是中国语境下的“负责任创新”理解。中国的创新历程还较为短暂,乱象自然更加频仍。尤其是互联网金融领域所开展的多次、持续专项整治是在内外部合力规制的框架之外,需要遵守的另一条底线。

  第二,智能金融发展应当遵守技术伦理。智能金融的负责任创新所遵循的伦理,既包括金融伦理,也包括技术伦理。人工智能算法容易产生两类悖论——“产生悖论”与“结果悖论”。前者指从数据的输入来看,不论输入是否存在主观偏见的可能,算法都会走上歧视的道路,要么是输入算法程序的人本身带有主观价值色彩,要么是算法自身运行过程造成了客观系统歧视。后者指从输出的结果来看,要么造成对某些群体客观歧视,要么造成客观忽视。有时候,这类歧视会因为算法黑箱的原因而不容易识别或者无法解释。