Share - WeChat
原标题:守住AI发展的安全底线 博鳌亚洲论坛2026年年会关注AI治理
“我是来自星动纪元的Q5机器人!”“我是来自百度智能云的数字人ViviDora!”
3月25日,博鳌亚洲论坛2026年年会举行“人形机器人的进阶与飞跃”分论坛,两位实体机器人和一位数字人自我介绍为论坛开场,引起阵阵惊叹。
技术越是深入生活,法治与伦理的追问就越发紧迫。比如当AI走出工厂,进入家庭、职场和公共空间时,物理安全、数据隐私、伦理争议和责任认定等问题应该如何处理?
本届年会上,AI成为最具人气和讨论度的话题之一。4天时间里,来自中外的政商学界嘉宾围绕热点话题深入探讨,为AI治理和发展贡献“博鳌智慧”。
在“人形机器人的进阶与飞跃”分论坛上,英国牛津大学马丁学院人工智能治理倡议高级顾问兼多边人工智能主任萨姆・道斯梳理了全球监管格局的多元化现实:“欧洲有《人工智能法案》,中国有相关的监管框架草案,英国也推出了机器人监管法案。”
萨姆・道斯认为,尽管路径不同,但这些监管措施“都是基于伦理的考量”。萨姆·道斯特别提到了新加坡的AI监管实践,认为其在道德伦理维度、平衡创新与监管的考量值得借鉴。
新西兰前总理希普利在年会多个场合谈及对AI快速发展带来的安全和伦理隐忧。她表示,AI的发展将不可避免地替代劳动岗位,加剧数字鸿沟,同时将引发隐私安全、伦理风险,谁来为AI发展带来的后果负责,企业、政府还是公民自己?目前还没有答案。
“人类要思考使用机器人为人类服务,而不是让机器人挑战社会伦理和人性。”希普利说。
“AI作为泛在技术,对各行业效益、质量与安全提升意义重大,当前首要任务仍是推动其快速发展,但需兼顾经济‘合理性’与社会‘合意性’。”3月24日,国家数据专家咨询委员会主任江小涓在“中国经济展望:聚焦高质量发展”分论坛上的发言,引发广泛共鸣。
江小涓指出,AI发展的 “合理性” 体现为向善、符合治理原则,能促进经济发展、增进民生福利、推动社会公平;“合意性” 则关乎人类长远福祉,需警惕技术合理但不合意的情况。
谈及AI伦理与监管,江小涓表示,技术可能改变人类生存状态与社会结构,当存在极端损害、威胁社会安全或个人隐私等风险时,政府应主动监管、提前防范,而非事后补救。她呼吁社会科学界立足实际评价AI发展,坚持以人为本,统筹效率与公平,让技术真正造福民生。
这一观点在“AI+:数智赋能产业升级”分论坛中得到延续。“技术发展太快,政策和法律总会滞后,但我们能通过多方合作,守住AI发展的安全底线。”分论坛上,中外专家的共识,道出了人工智能治理的核心命题。
随着AI技术的快速迭代,治理体系建设成为保障产业健康发展的关键。为此,中国工程院院士、清华大学智能产业研究院院长张亚勤表示,企业作为治理主体,应将安全防护融入技术研发全流程。
张亚勤提出三项具体建议:AI生成内容必须有标识,智能体必须追溯到实体责任方,禁止智能体自我复制。去年9月,中国将AI生成内容标识纳入立法,成为全球首个出台相关法律的大国,彰显中国AI治理的前瞻性。
在中国信息通信研究院院长余晓晖看来,中国民众对AI技术的接受度全球最高,这为创新提供了良好生态,但同时也需要树立风险敬畏感,通过企业安全能力建设、政府分级分类监管,守住AI发展的安全底线。
“中国信息通信研究院推动了十余家头部AI企业开展安全承诺与披露,形成行业自律的良好氛围。”余晓晖表示。(法治日报全媒体记者 邢东伟 翟小功)
2022年7月12日,世界互联网大会国际组织正式成立,从互联网领域的国际盛会发展为国际组织,总部设于中国北京。我们将致力于搭建全球互联网共商共建共享平台,推动国际社会顺应信息时代数字化、网络化、智能化趋势,共迎安全挑战,共谋发展福祉,携手构建网络空间命运共同体。