来源:媒体滚动

来源:21世纪经济报道

2022年底,ChatGPT横空出世,掀起了新一轮人工智能革命。此后,各国科技公司纷纷加码大模型研发,“千模大战”愈发激烈。人工智能疾风劲吹,深刻地改变着社会生产力与生产关系,同时,数据泄露、版权纠纷、歧视偏见等伴生风险成为隐忧,全球都在进行人工智能治理话语竞赛,寻求监管主导权。在此背景下,中国将会如何通过立法来贡献出具有中国特色的AI治理路径?


【资料图】

8月15日,由中国社会科学院法学研究所主办,中国社会科学院法学研究所网络与信息法研究室、南财合规科技研究院等共同承办的“全球治理话语竞赛下人工智能立法的中国方案”研讨会在北京举行,研讨会邀请监管部门、专家学者与行业代表,共同就我国人工智能发展相关问题建言献策。

人工智能产业链特性使责任原则难落实

人工智能浪潮涌起,技术发展带来的挑战与机遇影响着产业链的每一环节。星纪魅族集团有限公司数据合规执行总监朱玲凤从产业链的角度探讨了当前人工智能治理的难点。“移动应用的生态系统,从APP到SDK、应用分发、操作系统,我们一般称之为‘生态圈’。但人工智能有所不同,是有上下游关系的,芯片、算力、存储、算法模型等缺一不可,才能最终形成服务,可以理解为‘产业链’。”

朱玲凤表示,人工智能产业链是分散式的,相互依存且处于动态变化中。“服务的最终形态会因过程中的数据输入、场景和选择链路变化而发生改变。例如,当上游的训练数据过程存在人口统计偏差却没有及时处理,下游投入应用,如面部识别时,则可能因代表人群缺失等缺陷而产生极端事件。”

“新兴行业通常会推崇责任原则,强调企业能够证明自己已经有效履行合规义务。但在人工智能产业链上,责任原则很难落实,风险管理制度处于失效状态,对于研发者来说很难基于使用场景来识别和管理风险,对提供者来说了解使用场景,但是可能并不掌握训练数据、模型选择、模型测试等情况,无法实际判断风险。”朱玲凤说。

小米集团高级法务总监陈一夫认为,目前AI技术水平仍属于弱人工智能,是完成特定任务的信息化工具,不具备自主意识,现有法律框架仍可以规制。但长远来看,AI技术的革命性创新给社会关系带来根本性的挑战。一是社会伦理的挑战,如教育、隐私、网络安全、欺诈、歧视等等。二是经济的挑战,人工智能可能对劳动者进行替代,引发就业问题。三是生存的挑战,未来具有自主意识的强人工智能对人类文明的影响不可控。因此,需要全社会在伦理维度有更多思考。同时,企业要建立正确的科技理念,技术发展要对人类文明有长期价值,长期持续投入,给人工智能赋予人类的价值观。

企业呼吁明晰权责边界、分类分级监管

人工智能技术与各个产业融合渐深,覆盖多种应用场景,不同类型、程度的风险也逐渐被人注意。然而,技术对产业转型升级的效用也不可忽视。参与研讨会的从业者认为,未来应聚焦应用风险,建构基于风险的监管治理体系。

新浪集团法务部总经理谷海燕指出,整体监管上,企业期待更有区分度和颗粒度的监管措施。比如欧盟《人工智能法案》中,根据不同的风险等级、区分规制路径并设置法律的义务。这类措施能够更好平衡企业社会责任和能量释放,促进产业健康发展。

朱玲凤表示,行业期待法律的确定性,进一步明确义务边界和责任分工有利于营造更优的营商环境。“以人工智能透明度和可解释性举例,上游数据提供方可以通过提供‘数据卡’的方式,告知数据来源、数据质量、清洗过程等,模型开发者也可以通过‘模型卡’的方式解释模型的选择,以此类推,通过技术流程予以明确义务,不同的主体之间有清晰的责任边界且互相衔接的方式,强化通过技术监管的方式来应对风险。”

淘天集团法务部数据合规负责人顾伟则结合自身实务经验指出,技术进展日新月异,要精准地预测每一个伴生风险并不容易。因此,应当增加法律、规则中的容错机制,为产业发展留出空间。“人工智能立法应当强调基于原则性的规定,而非具体规则。”

随着人工智能发展踏上新台阶,2022年至今,政府接连出台新政策,以期助力行业发展。今年7月,国家网信办等七部门发布的《生成式人工智能服务管理暂行办法》(以下简称“《暂行办法》”),对服务各环节提出一系列要求。作为我国在AI治理领域的最新规则,《暂行办法》体现了我国怎样的治理思路?

“相比于此前的征求意见稿,《暂行办法》更鼓励产业发展,将企业保证义务变成了倡导和承诺。”陈一夫认为,《暂行办法》一定程度上保证了从业者的权责平衡,为行业发展留出了空间。针对未来治理实践,陈一夫建议,应当审慎执法,同时保证有典型性的执法,保障行业健康发展的同时,也有底线可以参照;此外,还要加强伦理和责任制的研究,让身处技术中的各方明晰权责。

人工智能立法应坚持以监管促发展

未来,中国人工智能监管如何平衡发展与治理?

中国信通院云大所内容科技部研究员呼娜英认为要以“数据、模型、内容、服务”为核心关切,首先应聚焦数据治理,确保源头可信,把控训练数据来源合法性,关注合乎版权的数据处理规范,保护敏感信息;其次要加强模型治理,提高模型科技伦理治理要求,促进模型应用上下游信息共享,强调模型全生命周期安全可控;最后深化内容治理,探索溯源技术,防范虚假信息的生产传播,构建健康文明网络生态。

全国人大常委会法制工作委员会经济法室副处长林一英强调,“不发展就是最大的不安全”已经成为共识。当前,全球都将人工智能作为提高国际竞争力、维护国家安全的重要战略,在此背景下,我国应坚持“以监管促发展”的思路来推进立法,坚持安全与发展并重。

北京交通大学国家安全法治发展研究院联席院长赵刚比较了中美人工智能监管的差异,他认为,中美在大模型的训练框架、训练效率、安全性、可解释性、可信度等方面差距较明显,建议发挥体制优势,建立国家在人工智能方面的科技战略力量,整合研发资源,加快核心技术攻关,鼓励地方政府及各行业优先应用我国的人工智能产品、技术和服务。

“全球范围内的人工智能立法已经铺开,中国探讨自己的AI立法是复杂且艰巨的。”北京视界律师事务所合伙人吴凡表示,生成式AI是划时代的革命性工具,建议按照AI适用的场景和相应的风险进行分级管理。对于国家安全、主流价值观、伦理道德等划定红线,对高风险、中风险、低风险的AI应用采取不同的监管方式,例如规定差异化的数据容错率、审批制与备案制相结合等等。

“探索中国AI立法之路,首先要尊重行业差异,不同行业对人工智能的使用方式和效果都有着非常大的区别;其次要强调政治安全,同时促进社会公平,保护个人隐私;此外,发展的弹性和确定性要相结合,确定性较高的事情可以公开透明地让公众了解,因技术而带来的不确定性,应当保持一定的弹性;最后,在国内国际双循环的背景下,人工智能的发展要与国际合作相结合,更好地融入到世界的技术迭代当中。”吴凡说。

(作者:钟雨欣,冯恋阁,实习生刘爽 编辑:王俊)

推荐内容