首页 >> 新闻公告 >> 新闻信息 >> 正文

“人工智能与和谐社会:构建安全可信的未来” 2025年北京论坛分论坛圆满举办

信息来源:     发布时间:2025-11-11     浏览量:


2025118日至9日,由北京大学人工智能研究院主办的人工智能与和谐社会:构建安全可信的未来分论坛在北京大学斯坦福中心李兆基大堂举行。作为北京论坛(2025)的重要组成部分,本次为期两天的论坛汇聚了来自中、美、韩、法、俄等国的顶尖专家学者,围绕人工智能的安全、治理与伦理议题展开深入研讨,搭建起一个开放、理性、建设性的国际对话平台。

分论坛隆重开幕

论坛开幕式由北京大学人工智能研究院副院长杨晓雷主持。他首先对与会嘉宾表示热烈欢迎,并指出,生成式模型等AI技术的快速发展正深刻影响社会运行方式,如何确保AI的安全、伦理与治理已成为全球共同课题。本次论坛旨在汇集多方智慧,共同探讨应对这一挑战的行动路径。

杨晓雷主持

北京大学党委常委、副校长方方出席开幕式并致辞。方方表示,北京大学作为中国人工智能研究与教育的重要基地,始终致力于打造世界一流的学术创新与交流平台。他强调,面对人工智能带来的复杂挑战,国际社会应秉持开放姿态、深化合作共识、坚持创新驱动发展,凝聚全球智慧与力量,共同推动人工智能技术朝着安全、可信、可控的方向稳步发展。

美国信息技术与创新基金会副主席 Daniel Castro在特邀致辞中提出,AI治理应在竞争与合作中寻求平衡,通过测试评估、开源风险管理与持续对话机制,构建务实的全球协作框架。

Daniel Castro致辞

紧接着,北京大学人工智能研究院院长朱纯松教授作题为《智能时代的文明演化:构建安全可信的人机共生社会》的报告,介绍了团队在通用智能体通通、评测体系通智测试等方面的最新成果,提出以为核心的AI内生安全机制,并倡导以中国哲学思想探索构建通用人工智能(AGI)的创新路径。

朱纯松发表主旨演讲

Session 1|全球视野下的AI安全与治理

在开幕式结束后,分论坛进入首个议题,围绕全球视野下的AI安全与治理展开主旨演讲。主旨演讲由来自中、法、俄三国的专家学者共同参与,包括中国科学院大学网络空间安全学院教授虎嵩林、法国Safer AI执行主席Henry Papadatos以及俄罗斯莫斯科物理技术学院智能交通实验室主任Dmitry Yudin

三位嘉宾从不同专业领域出发,深入探讨了人工智能在安全治理、风险管控与系统设计方面的前沿问题。报告指出,AI安全既是技术课题,更关乎制度与伦理建设。面对算法风险与模型不确定性,专家们强调应构建全生命周期风险管理体系,强化红队测试与AI靶场实践,通过多模态评测与3D感知增强模型的可靠性与解释性。同时,呼吁在国际范围内推动标准互认与治理协作,共同应对全球AI安全挑战。

虎嵩林报告

Henry Papadatos报告

Dmitry Yudin报告

接下来的圆桌讨论由北京大学社科部副部长王栋教授主持,邀请北京师范大学的汪庆华、AI安全论坛的政策研究员 Saad Siddiqui、重庆邮电大学的黄东东和莫斯科物理技术学院Ershov Egor等专家,展开热烈而深入的思辨。 讨论聚焦于AI对社会结构的重塑、责任与普惠发展的平衡、国际合作机制建设以及公平包容治理框架等议题。与会专家皆认为,AI治理应平衡创新与约束,以算法透明和人机信任为基础,推动形成公平、包容的国际治理框架。

Session 1 圆桌讨论

Session 2|AI发展与文明演化的实践路径

下午场分论坛围绕“AI发展与文明演化的实践路径议题继续举行,多位中外专家学者分享了最新研究成果与思考。本场由北京大学人工智能研究院副院长、北京大学数字人文研究中心主任王军主持。

王军主持

主旨演讲邀请了加州大学洛杉矶分校副教授Francis Steen南加州大学研究员Jad Soucar北京大学武汉人工智能研究院执行院长吴志强教授莫斯科物理技术学院研究中心主任Ershov Egor以及北京大学武汉人工智能研究院副院长吕鹏教授

嘉宾们从哲学、技术、人文与社会等多重维度探讨了人工智能与人类文明的共生演进。Steen指出,大语言模型存在回归平均的风险,主张以模块化体系、启发式探索和价值引导构建具创造性的智能框架;Soucar提出动态价值空间模型,倡导以多维反馈机制实现伦理透明与共生发展;吴志强介绍了环境数据通信三位一体的AI安全体系,强调开放合作的可信生态;Egor强调AI应通过可行性评估流程优化价值拓展实现与人类协作的产业应用;吕鹏则以多智能体模拟揭示中华文明演化规律,指出文明差异源于参数而非机制的不同,体现了文明演化的普适逻辑。

Francis Steen报告

Jad Soucar报告

吴志强报告

Ershov Egor报告

吕鹏报告

圆桌讨论由吕鹏主持。重庆邮电大学网络空间安全与信息法学院教授郭亮、北京大学医学人文学院与马克思主义学院医学部教研中心教授曹得宝、加州大学洛杉矶分校副教授Francis Steen以及南加州大学研究员Jad Soucar4位嘉宾,聚焦于AI的本质与人类智能的关系、主体性与人机边界、数字公平与技术普惠,以及通用人工智能的拟人化进程和治理挑战等议题,从科学、人文、法律与社会治理等角度展开深入探讨。嘉宾一致认为,AI仍是人类理性与想象力的延伸,应通过分层责任体系和伦理规范防止算法垄断,完善公共机制,推动人工智能的公平与可持续发展。

圆桌讨论

Session 3|AI治理的远景构想与前瞻

119日上午的第三场会议以“AI治理的远景构想与前瞻为主题,由北京大学人工智能研究院 AI安全与治理研究中心主任张平教授主持。信息技术与创新基金会副主席Daniel Castro、中国社会科学院法学研究所教授姚佳、AI安全论坛政策研究员Saad Siddiqui、韩国嘉泉大学教授Kyoungjin Choi、对外经贸大学教授张欣5位嘉宾先后发表主旨演讲。

张平主持

嘉宾们普遍认为,人工智能治理正处于从理念共识走向制度落地的关键阶段,全球在主权、开放与控制之间面临新的平衡。报告指出,未来AI治理应在多元文化背景下形成渐进协作与标准对齐机制,以提升全球互操作性。与会专家强调,治理体系建设应聚焦数据质量、偏见防控与知识共享,推动伦理规范与创新激励并行;在应对前沿风险方面,应建立事件报告与风险监测机制,强化跨国协作与快速响应能力。同时,会议呼吁以价值协同取代单一价值对齐理念,推动多边平台下的开放合作与责任共担。专家们一致认为,AI版权与知识分配机制亟需更新,以实现技术创新与社会公平的动态平衡,为构建安全、透明、可问责的全球AI治理格局奠定基础。

Daniel Castro报告

姚佳报告

Saad Siddiqui报告

Kyoungjin Choi视频报告

张欣报告

圆桌讨论由北京大学智能学院助理研究员辜凌云主持。中国社会科学院大学刘晓春副教授、北京大学法学院胡凌副教授、Daniel Castro以及 Henry Papadatos围绕全球AI治理的开放与控制”“政策协作”“可信机制”“文化多元等议题展开对话。与会者认为,闭源模式强化安全但抑制创新,开源促进共享却放大风险,应寻求动态平衡;同时应以风险共识为基础,推动制度创新与文化互信,在合作中构建可信、包容、可持续的全球AI治理体系。

圆桌对话

随着各场报告与圆桌讨论的顺利完成,2025年北京论坛人工智能分论坛至此圆满落下帷幕。为期两天的会议以全球视野和中国智慧为支点,为国际社会提供了交流与合作的平台,也充分展现了北京大学人工智能研究院在AI安全、伦理与社会责任领域的学术担当与创新实践。未来,北京大学人工智能研究院将持续汇聚力量,贡献建设安全可信未来的中国方案