金融领域如何应对AI安全?第三代人工智能给出解决方案
随着人工智能技术在金融场景的应用不断深化,数据、算法与应用层的安全可控问题逐渐凸显。
6月3日,在北京智源大会“AI安全与产业治理”论坛上,中国科学院院士、清华大学人工智能研究院院长张钹表示,包含知识、数据、算法和算力四个要素的“第三代人工智能”,为发展安全、可信、可靠和可扩展的AI技术提供了可能性。
金融业的AI安全问题
对于金融行业来说,人工智能的安全问题尤其需要警惕。
“就像打仗一样,攻击者可能用水攻,也可能火攻,还可能偷偷挖条地道来攻打一座城,守城的人不能只考虑一种可能性,必须布防应对许多的攻击可能性。”阿里安全高级算法专家越丰这样说道。
清华大学计算机系教授、瑞莱智慧首席科学家朱军也指出,目前人工智能算法的安全性存在严重不足,为智能技术的应用带来较大隐患。
当前,金融机构也在大力投入人工智能领域的研发,在中国工商银行软件开发中心大数据与人工智能实验室副主任黄炳看来,这背后的一个重要原因正是普惠金融的发展。
发展普惠金融,金融机构面对的数据样本存在严重的地区不平衡和人群不平衡,加之算法设计的不合理,便容易产生公平性问题。
黄炳指出,现在越来越多的数据通过线上渠道采集而来,如何对数据进行精准识别与分类成为重要问题。另外,金融业还面对算法的可解释性问题。
“长期以来,金融机构的风控模型就是简单的逻辑回归。而随着90后、00后步入社会,如何将海量的数据融合从而提供更好的智能金融服务,这是金融机构需要思考的。”黄炳这样说道。
瑞莱智慧CEO田天对《华夏时报》记者表示,现阶段人工智能产业正经历从高速增长向高质量发展的转变。人工智能已经突破传统的感知智能阶段,进入到更加高阶的认知决策阶段,人工智能已开始接近一些核心的智能问题。
田天指出,金融等更高价值场景的AI应用需求不断增加,安全性的重要性也大大提升。但由于传统技术范式存在天然的算法漏洞和缺陷,导致人工智能在这些场景的应用存在局限。
第三代人工智能备受关注
张钹指出,人工智能的安全可控问题要从技术层面来解决。
据黄炳介绍道,工行在现有人工智能技术体系基础上,围绕“软硬件运营环境可信、数据隐私保护、算法模型安全”三大核心能力建设出金融领域的人工智能安全可信能力。
他还强调,AI安全是AI大规模应用的前提和必备条件,同时AI可信能力必须是全栈且覆盖模型全生命周期。通过安全可信技术的研究和突破,提升规模化AI生产部署的安全可信支撑能力,可以增强多方数据生产要素的融合能力,为数字经济社会提供更高效率、更低成本、更低门槛的普惠金融服务。
关于AI在金融风控中的应用,建信金融科技有限公司创新实验室总经理王雪从实操层面进行了详解。
据王雪介绍,客户在银行申请信用贷款时首先要进行测额,这一环节的难点在于,如何测度客户的无形资产价值,即预测客户在未来几年内的个人资产总量。
建信金科采用包括AI、经济学理论、资本理论、认知行为理论在内的跨学科方法,利用人工智能的机器学习算法提炼出数据驱动的金融素养标签。
例如,某批发行业小企业主拥有一些固定资产,和一些金融资产,年收入100万元,建信金科根据他的信息测算形成模型,据此可以构建未来三年的流动性风险限额。这样的模式更加客观,也更具前瞻性,使银行可以更快、更好地把握风险。
另外,在数据隐私保护方面,建信金科还构建了企业级的隐私保护平台。
关于人工智能的安全可控,田天认为,“安全”是指打造数据安全与算法安全两大核心能力,解决数据强依赖带来的隐私泄漏与数据投毒等隐患,同时提升算法可靠性。“可控”既指应用层面的合规可控,更指核心技术的自主可控,以自主可控为根基,通过理论创新、技术突破形成核心竞争力。
会上,清华大学联合阿里安全、瑞莱智慧发布了首个公平、全面的AI攻防对抗基准平台,该平台可实现对AI防御和攻击算法的自动化评估。
“安全可控是发展第三代人工智能的核心基准,也是加快人工智能高质量发展的有力支撑。”田天这样说道。
相关研究报告显示,到2030年全球人工智能市场规模预计将达到15.7万亿美元,约合人民币104万元。“深度智能”时代正将加速到来,人工智能在金融领域的应用不断拓展。
智能金融的未来充满想象空间,但要实现真正的人工智能仍面临诸多深层挑战。第三代人工智能通过释放“数据、知识、算法、算力”的全新维度,为实现安全可控的新一代人工智能提供可能,有望重塑金融行业价值。
(文章来源:华夏时报)
声明:文章仅代表原作者观点,不代表本站立场;如有侵权、违规,可直接反馈本站,我们将会作修改或删除处理。