微众银行关注可信人工智能,参与撰写《可解释人工智能导论》正式出版

近日,来自机器学习、计算机视觉、自然语言处理,以及在生物医疗、金融、推荐系统等应用领域的12位著名专家联合创作的《可解释人工智能导论》一书正式出版,该著作全面介绍了可解释AI在理论上和应用上的发展现状、存在的问题以及今后发展的方向。其中微众银行首席人工智能官杨强教授与人工智能首席科学家范力欣博士作为主要作者参与了此书的撰写。

AI应用持续落地,打造可解释AI日趋重要

进入21世纪以来,人工智能(Artificial Intelligence,AI)取得了长足发展,智能化的人机协同成为发展趋势。如果能够了解AI对决策的判断,实现理解、信任、管理AI的目标,那么人们将更有信心全方位地应用AI。

在此背景下,发展可解释、可扩展、安全可靠的AI显得至关重要。可解释性就如同医生需要向病人解释病因,才能提供可理解的诊断结果和治疗措施。发展安全可靠的AI的首要任务,是人类能够理解AI技术的基本原理、自动决策的机制,以应对潜在风险及准备防范措施。在实际情况中,核心AI算法尤其是深度学习算法通常运行在类似于“黑盒”中的工作模式,其运行结果需要辅以合理的解释为人类所理解和信任。

各国现行的条例法规同样要求人工智能系统的开发使用,必须在监管合规的条件下运行。因此,发展可解释AI具有重要的理论意义与现实意义。首先,可解释AI可帮助用户建立对AI系统的信任,防止因为算法的黑盒特性做出有偏见的结论,促进算法的公平性;其次,它可以满足监管机构的合规要求,促进AI的公平性、稳健性、安全性发展。

微众银行关注可信、可解释的AI理论及应用

基于在金融领域的实践,微众银行已经在智能服务、智能营销、联邦学习等方面获得一系列成果。参与撰写《可解释人工智能导论》体现了微众银行在发展可信、可解释、负责任的人工智能方面的探索。

据了解,针对隐私计算和联邦学习所面临的安全、效率、性能之间的平衡问题,近期杨强教授带领微众银行AI团队持续丰富和拓展联邦学习的理论,提出了“可信联邦学习”概念。“可信联邦学习”以隐私保护、模型性能、算法效率为核心的三角基石,以模型的决策可解释性和可监管性为两大支柱,共同构成了更加安全可信的联邦学习。

在“可信联邦学习”理论框架下,杨强教授及团队提出了隐私与模型性能的"No-free-lunch安全-收益恒定"定律,利用该定律可实现可信联邦学习的安全、性能、效率三者的协调,在实现更高质量的隐私保护的同时,既不牺牲数据安全保护,也不致使模型性能和学习效率的大幅下降。有效运用该定律能够量化分析隐私计算各种技术保护方案的优劣,进一步优化隐私保护算法设计。目前相关论文已被国际顶级学术期刊接收。

杨强教授表示:“数据安全、隐私保护与可解释性应当与模型性能、算法效率并重,在金融应用场景中尤为重要。未来,微众银行将持续深入在相关领域的探索和研究,持续推动可信、可解释、负责任的AI应用。”

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )