首页 >> 新闻公告 >> 新闻信息 >> 正文

朱松纯教授出席国际人工智能会议并作主题报告

信息来源:     发布时间:2021-06-08     浏览量:

202166日,CAAI国际人工智能会议(CICAI2021)在杭州举行,北京大学人工智能研究院院长朱松纯教授受邀出席会议并作了《可解释性人工智能:如何让机器获得人类有依据的信任》主题报告。

朱松纯指出:当前人工智能技术出现在了人们工作、生活的方方面面,正在为各行各业赋能。但当人们与人工智能设备互动时,又会对人工智能时不时表现出的智障(答非所问)产生困惑。针对以上行业痛点,“智能体(AI agent,这里泛指人工智能系统)如何有效地‘解释自己,取得人类用户的‘信任、从而产生高效的人机协作、进而融入一个人机共生共存的社会”,已成为当今人工智能前沿研究的一个十分紧要的课题。

朱松纯在CICAI2021作《可解释人工智能》主题报告

朱松纯进一步指出,当前比较流行的人工智能技术采用的是大数据,小任务范式,产业界更倾向于将人工智能技术等同于大数据+深度学习+超大算力。基于这一范式的人工智能技术距离人们对AI的期待还有较大差距,例如,AI只能完成特定的、人类事先定义的任务做不到通用;每项任务都需要大量标注的数据,没有数据就不知所措;模型不可解释与知识表达不能交流,无法与人做多回合交互等。大数据+深度学习范式是将训练数据输入到神经网络中,然后得到一个预测值,这个神经网络由数量庞大的神经元组成,其演算机制无法解释,造成人无法信任AI。因此,我们未来要发展具有可解释性的人工智能,让人工智能技术跳出黑箱,成为可解释、可解读、可信任的人工智能。可解释的人工智能(Explainable AI)大致分为两个层次:1.自省与可解读性,即机器与人类达成共同语言表达;2.自辩的能力,即机器要向人类解释其计算的机理与过程。

当谈到如何建立信任时,朱松纯认为,AI如果要获得人的信任,要在两个层次上获得人的信任:1.能力的边界:AI要让人清晰地知道在什么条件下AI能做到什么样的性能,可以完成哪些任务;2.感情的纽带:AI要与人保持相近的价值观,把人类的价值放在重要位置,要让人知道AI和自己是命运共同体,时刻维护人的利益。通过人机之间的迭代、交流、协作增进互相理解,进而达成共识,产生有依据的信任”(Justified Trust)

进而,朱松纯提出了人机之间建立有心智理论的可解释性框架 (Explanation withTheory-of-Mind, X-ToM)。人机之间需要对客观的物理世界产生相同的感知,通过交流认识到对方是如何看待同一个事物的从而形成共识,即你知道我是知道你知道的,X-ToM便是这种人机之间的交流模型。AI通过人机交互的X-ToM框架,并采用可解释的与或图模型,实现模型的可解释、可追溯、可修改,让人工智能技术成为透明的、可控的、可信的技术。在实际应用中,人们知道AI给出答案的依据是什么,计算的过程是什么,进而实现人对人工智能有依据的信任。

朱松纯通过气泡游戏解读X-ToM模型和与或图模型

最后,朱松纯表示,其研究团队将深入探索视觉、语言与认知形成的学习闭环,进而实现人机之间拥有共识、形成共同的社会规范和行为价值,赋予人工智能以三观,让人工智能技术真正融入人类社会,创造通用智能体,提升全人类福祉的愿景。

本次会议由中国人工智能学会主办,旨在搭建国际学术交流平台,为全球致力于人工智能技术研究的学者提供跨学科、跨领域、跨地区交流的机会,增强学术交流与产业交流的深度与广度,激发新思想、培育新力量。