【AI国际治理知识库】
在全球化和技术革新浪潮中,人工智能作为一种颠覆性的技术力量,正在深刻改变全球经济结构和社会秩序,并引发了广泛的关注和一系列复杂的治理挑战。随着AI技术的快速发展和广泛应用,建立有效的国际治理框架变得尤为迫切。AI国际治理知识库关注全球视野下人工智能国际治理的关键趋势与地缘政治背景下的科技和数字治理问题,为关注相关问题的朋友提供及时、有效、严谨、全面的知识信息。
Part2 探索人工智能治理的中国路径
Part3 人工智能立法对国内人工智能的发展可能产生的影响
1.人工智能立法对国内人工智能的发展可能产生的影响
2.我国人工智能立法进程前瞻
2024年3月4日,十四届全国人大二次会议在人民大会堂新闻发布厅举行新闻发布会,大会发言人娄勤俭在答中外记者问时提到,2023年,全国人大常委会对《科学技术进步法》实施情况进行了执法检查,下一步我们将研究推进科技创新方面的立法,特别是深入研究人工智能、生物技术等前沿科技领域有关伦理、道德、安全等重要问题,不断完善科技法律体系。具体到人工智能领域,专家认为立法工作的重点包括数据保护与隐私权益、算法公正与透明度、人工智能安全与监管和知识产权与成果转化等。李强总理更是明确在2024年政府工作报告中提出,深化大数据、人工智能等研发应用,开展“人工智能+”行动。
来源 建议及提案 具体内容 加快建立制造业碳足迹背景数据库,推动国际衔接与互认。 支持打造绿色数字化供应链系统,实现供应链内协同联通。 探索建立绿色电力全国交易机制,促进链主企业引领供应链绿色转型。 从义务教育阶段普及人工智能素养教育。 大力推进高校人工智能相关专业的建设。 支持大型科技企业和教培机构培育人工智能应用型人才。 规范辅助驾驶功能应用,打造更安全的驾驶体验。 规范自主代客泊车功能应用,保障无人化场景体验安全。 规范车端数据使用,提升智能驾驶产品安全水平。 促进先进智能技术与制造业融合创新,加速工业大模型部署。 完善标准体系建设,探索智能制造“中国范式”。 支持龙头企业承接智能制造重大专项,攻关关键技术装备。 政府、央国企应率先提供更多应用场景,聚焦“小切口,大纵深”,推动大模型垂直化、产业化落地,助力百行千业数字化转型,实现数转智改。 鼓励企业在定制AI大模型前,做好知识管理,将企业大数据平台升级为企业知识平台。在此基础上,通过垂直训练,深入企业级场景,满足企业需求。 励和引导企业将大模型与数字化业务系统深度结合,同业务流程相结合,充分发挥大模型价值。 建议国家更加重视通用大模型安全问题,给予兼具“安全和AI”能力的企业专项扶持政策,更好发挥其解决通用大模型安全问题的重要作用。 建议国家研究制定保障通用大模型安全的标准体系, 推动通用大模型开展安全评测、接入安全服务,降低通用大模型安全风险。 鼓励政府、央国企与兼具“安全和 AI”能力的企业在大模型安全领域展开深入合作。 建议发挥举国体制优势,加大并保持对通用大模型底座“主战场”的持续投入。 建议加快形成围绕国产大模型的自主可控产业生态。 建议推动国家级高质量训练数据开放和共享。 建议出台更加客观、公正、可信的评测方法,加快大模型在行业领域的应用落地。 建议坚持源头核心技术系统性创新,在战略性、前瞻性的基础研究领域做好布局。 建议加快推广大模型赋能全学段,以全新机制加快探索我国人工智能拔尖创新人才培养。 建议研究通用人工智能时代人才能力素质模型和培养方案,加快应用型人才培养。 建议加速通用人工智能技术相关的法律法规制定与审议。 建议设立软课题进行通用人工智能相关的伦理人文研究。 要在实践层面落实“包容审慎”的治理理念,可能还有赖于对人工智能产业发展现状与痛点、引发的风险程度与范围等进行充分调研,设置“包容审慎边界——划定安全底线”的刚柔并济路径,寻求平衡发展与监管的“破题”之策。 参考其他成熟的监管思路,将人工智能和算法技术按风险等级进行划分,并针对不同等级采取不同的监管措施。例如,可能会通过潜意识操纵用户的人工智能系统应被直接禁止。 考虑到人工智能技术的复杂性和专业性,张毅建议,借助市场力量,外聘或者借调人工智能领域的专家共同参与监管法律体系的建立。 参考金融科技行业的监管经验,引入“监管沙盒”制度等创新监管工具,对于原有监管制度存在空白或不明确的,在一定条件下,允许企业进行试验性的开发、测试和验证。 强化由网信办牵头,国家发展改革委、工业和信息化部、公安部等部门共同参与的算法治理联席会议制度。 对大模型的数据采集来源、处理方法、合规性等进行监督和审查。 应加强对大模型的社会影响和风险评估,及时发现和解决可能存在的问题。 一方面是推动大模型研发机构和企业制定严格的保护政策和行为规范,严厉打击侵权行为,确保数据持有方的知识产权和利益得到充分保护。 另一方面是制定相应的鼓励和扶持政策,保障拥有丰富高质量数据储备及持续生产能力的企业和社会主体得到整个行业的重视,促进数据要素市场的形成和生产能力的持续发展。 相比立法,规范性文件的制定和修订都更加灵活,现阶段《生成式人工智能服务管理暂行办法》能够基本满足监管需求。 我们在立法中可以借鉴欧盟经验,给市场一定的发展空间。 通过参与全球治理,提升中国在全球人工智能规则制定中的影响力和话语权,保持与全球的认知同步,建立共同的话语体系。 探索警惕个别大国企图垄断人工智能发展优势从而便利其搞“小院高墙”“脱钩断链”,甚至要把意识形态偏见引入人工智能治理,打造封闭排他的“小圈子”,恶意阻挠他国人工智能发展等行为。 积极支持在联合国框架下酝酿成立国际人工智能治理机构,研究协调规管国际人工智能发展、安全与治理等重大问题。 逐步建立健全法律和规章制度,保障人工智能研发和应用中的个人隐私与数据安全。 推动建立风险等级测试评估体系,针对文字、图片、视频生成模型分类分级管理,实施敏捷治理,紧跟技术发展情况,快速调整管理措施。 积极行动,倡导建立多语言、多宗教的综合性国际开源数据集,尽量减少数据的偏见。
全国人大代表,小米创办人、董事长兼CEO 雷军 围绕绿色低碳、人工智能、智能驾驶、智能制造等领域提出了四份建议 建议一:加快建设制造业绿色低碳供应链
全国政协委员、360集团创始人兼董事长 周鸿祎 围绕人工智能应用和安全提出了两份提案 提案一:关于深化人工智能多场景应用支持大模型向垂直化、产业化方向发展
全国人大代表、科大讯飞董事长 刘庆峰 围绕AI领域带来了多份建议 建议一:制定国家《通用人工智能发展规划》在2017年《新一代人工智能发展规划》的基础上,瞄准我国通用人工智能发展中需要重点补上的短板进行设计,围绕自主可控算力生态构建、高质量数据开放共享、科学的评测标准制定、源头技术前瞻研发、人才培养、法律制定和伦理人文等维度,系统性制定国家《通用人工智能发展规划》。建议二:在制定国家《规划》的同时,应加快推进通用大模型的相关工作,不断缩小中美通用人工智能产业在通用底座平台方面的差距
全国政协委员,上海市浙江青年人才联合会主席、金杜律师事务所高级合伙人 张毅 围绕人工智能治理 建议一:在立法层面,我国可加快推进《人工智能法》的出台,以构建人工智能算法治理体系,弥补监管体系空白以人工智能法及配套的监管工具为核心,形成完整的人工智能技术法律体系。建议二:在监管手段上,建议强化和创新算法监管。通过完善算法治理联席会议制度,实现多部门协同监管,形成“横向协同,纵向联动”的算法治理格局
全国政协委员,知乎创始人、董事长兼CEO 周源 重点关注了人工智能治理和完善中文语料库等议题 建议一:建立数据合规的监管机制,推动完善AIGC监管立法,保护和规范人工智能领域的数据合规
全国人大代表、四川省律师协会会长 李世亮 针对人工智能立法 建议:我们国家目前处于一个AI技术发展的起步阶段,还没有相对成熟的市场经验,因此精准立法的条件还不成熟
国政协委员,民革广东省委会副主委、深圳市委会主委,深圳市人大常委会副秘书长 何杰 针对人工智能立法与人工智能治理 提案一:积极参与人工智能全球治理
中央层面人工智能治理相关文件
国家机关 文件名 发布 时间
最高人民法院 《关于规范和加强人工智能司法应用的意见》(法发〔2022〕33号) 2022/12/8
科技部 《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》 2022/7/29
教育部 《人工智能领域研究生指导性培养方案(试行)》 2022/7/27
科技部 《关于支持郑州建设国家新一代人工智能创新发展试验区的函》 2021/11/13
科技部 《关于支持哈尔滨建设国家新一代人工智能创新发展试验区的函》 2021/11/13
科技部 《关于支持沈阳建设国家新一代人工智能创新发展试验区的函》 2021/11/13
科技部 《国家新一代人工智能创新发展试验区建设工作指引(修订版)》 2020/9/29
中央网络安全和信息化委员会办公室 《关于做好个人信息保护利用大数据支撑联防联控工作的通知》 2020/2/4
教育部、国家发展改革委、财政部 《关于“双一流”建设高校促进学科融合加快人工智能领域研究生培养的若干意见》 2020/1/21
国家林业和草原局 《关于促进林业和草原人工智能发展的指导意见》 2019/11/8
科技部 《国家新一代人工智能开放创新平台建设工作指引》 2019/8/1
教育部 《高等学校人工智能创新行动计划》 2018/4/2
工业和信息化部 《促进新一代人工智能产业发展三年行动计划(2018—2020年)》 2017/12/13
卫生部 《人工智能辅助治疗技术管理规范(试行)》 2009/11/13
卫生部 《人工智能辅助诊断技术管理规范(试行)》 2009/11/13
2024年3月16日上午,“AI善治论坛 人工智能法律治理前瞻”专题研讨会在北京举办,会议发布了《中华人民共和国人工智能法(学者建议稿)》,起草专家组由中国政法大学数据法治研究院、西北政法大学法治学院、中国信息通信研究院、北京航空航天大学法学院、华东政法大学数字法治研究院、西南政法大学科技法学研究院、中南政法大学知识产权研究中心七家单位的专家组成。来自北京大学、清华大学、中国人民大学、中国人民公安大学、中国社会科学院、对外经济贸易大学、北京电子科技学院等二十余所全国高校的专家学者出席了此次会议。
会议探讨了如何更好地引导和规范未来人工智能产业的健康发展。起草专家组经过一年的紧张工作,特邀国内人工智能治理领域的技术专家、法律专家、实务专家提出建议,为完善《人工智能法(学者建议稿)》提出具体意见,共同回应现实需求,为立法建言献策。会议分为两个单元,分别就《人工智能法(学者建议稿)》和人工智能法律治理问题进行了深入的交流和讨论。
建议稿在拟定过程中,主要围绕影响人工智能产业发展和技术创新的因素确定相应的章节体例和条款内容。就目前而言,算力、算法和数据是人工智能产业创新的核心驱动力,故而建议稿也是基于这三类影响因素确定相应的技术应用监管和产业发展保障相关的条款内容设计:
第一,在数据方面,基于大模型的人工智能产品或服务需要海量高质量的训练数据优化算法模型、提升产品或服务性能。因此,在第二章“发展与促进”中,多次提及数据要素供给、数据合理使用等问题。哪些数据能够作为人工智能训练数据是当下产业界较为关注的问题。因为诸如图片、视频乃至文学作品被用于训练算法模型时,其合法性问题争议较大。赞成者认为仅用于算法训练属于正常的技术创新研发活动,反对者则认为未经许可的使用行为本身已经构成对著作权等权利的侵害。为此,第24条则明确了“合理使用”的具体情形。
第二,在算法方面,建议稿则通过鼓励算法模型创新、关键技术创新以及开源生态建设,引导人工智能产业研发和创新既有的算法模型,促进研发者开发和设计兼顾科技伦理和合法性的算法模型。
第三,在算力方面,建议稿明确将“算力互联互通”作为基本原则,并在算力基础设施建设和算力资源利用等方面细化了多元算力的统一整合、调度和供应。
相比于《人工智能法示范法1.0(专家建议稿)》,此次建议稿没有采用负面清单制度,而是设置了关键人工智能和特殊应用领域人工智能监管制度。相比于负面清单制度的事前许可审批制度,关键人工智能没有设置事前准入门槛,仅在接收到被主管部门认定为关键人工智能的通知后,才需履行监管平台备案等义务。关键人工智能的义务加重主要包括,开发者和提供者需要建立风险披露机制和安全事件应急处置机制,以此确保关键人工智能发展的安全性。
特殊领域的人工智能则是根据不同的应用场景,分别进行有针对性的安全义务加码。建议稿希望通过这一制度设计,为产业创新减轻事前的准入负担,在确保安全需求的同时,鼓励我国企业积极参与人工智能开发和创新,促进我国人工智能产业健康发展。建议稿立足于我国本土,其充分考虑了我国产业发展实际和安全监管需求,并结合我国在网络和人工智能法治建设中已有的监管理念和经验,是人工智能治理领域中国智慧与中国方案的集中体现。
中国的人工智能立法具有不同于其他领域立法的独特之处,因此人工智能立法需遵循以下三个基本逻辑:其一,能够高度适应不确定性。人工智能技术的颠覆性与快速迭代性,使得未来技术发展与可能引致的风险具有高度的不确定性。这与传统立法相对稳定性和滞后性存在冲突,因此我国的人工智能立法需容纳并适应人工智能发展的这种高度的不确定性。其二,明确回应本土的独特性需求。因人工智能技术与产业具有独特的国际地位,故我国的人工智能立法需表达依托于特定国际环境条件而产生的本土化诉求,与科技领先的美国和以输出治理理念为先的欧洲均有显著区别。其三,完善人工智能法律制度,有效应对国际竞争。人工智能立法因其调整对象人工智能技术的跨国性、涉及国际竞争的复杂性、对中国治理主张的代表性,将成为涉外法治领域的重要组成部分,因此制度设计需具有高度的国际竞争视野。
人工智能的立法,便于相关机构可以对技术或者产品进行限制以及监督,避免技术被滥用的可能。不仅仅如此,存在相关法律制度设计,人工智能技术的生产商,也有了公正和规范的市场竞争环境,规范的立法和监管制度可以避免人为的错误和滥用,从而构建信任和安全的网络环境,在公平的环境下把焦点都倾注在产品技术研发上,减少一些不必要的问题滋生,让产品或者技术更好服务于人类。社会层面的抵触性可能在于立法的方法和内容仍然存在一些争议。比如要确定哪些内容需要被纳入法律里面,而且又该如何界定是否违法;在保障安全的前提下,不能影响技术的研发和推进,监管过于严格会影响生产商对技术或产品的研发落地。最终要面对的是如何在推动创新、收获人工智能效益、应对人工智能带来的风险和有效保护权利之间实现平衡。
立法内容可能涉及到多个群体的利益,包括研发技术产品的生产商、消费者等,所以制定政策者的应当在制定立法时考虑到这些不同群体的利益诉求,并采取广泛的咨询和参与程序,来保证立法的可行性以及公正性。研发技术产品的生产商要遵守立法的规定,在相关法律的要求下生产产品,或者对产品更新迭代,很可能还需承担传达立法的内容和宗旨的责任,让公众明确了解到产品或者技术是在遵守相关法律法规的情况下进行的。而对于享用技术或者产品的公众来说,也需要普及立法内容,避免由于不了解相关法规内容导致一些问题出现。
人工智能的立法也不是一成不变的,应该是一个长期的调整和改进,要根据技术或者产品的发展更新慢慢的进行调整和完善,才能跟上产品技术的进步。如何把控很关键,对风险进行分层定义是一个方法,欧盟委员会在2021年4月提出的人工智能法律框架里,就按照风险高低,将人工智能应用场景分为“最低、有限、高、不可接受”四个风险等级,等级越高的应用场景,受到的限制越严格。但法案也引发了许多争议,比如有人提出复杂的审查要求和程序,会增加企业的行政成本,尤其不利于中小型数字初创企业,遏制创新和技术运用,延缓欧盟的数字转型进程。法案反映了欧盟在促进创新和权利保护之间难以有效平衡的内在冲突。参考2022年我国上海发布并正式实施《上海市促进人工智能产业发展条例》,作为人工智能领域在国内的首部省级地方性法规,其中也提到了不同风险等级的表述:要求对高风险的人工智能产品和服务实行清单式管理,遵循必要、正当、可控等原则进行合规审查。对中低风险的人工智能产品和服务采用事前披露和事后控制的治理模式,促进先行先试。《人工智能法》的相关制度应充分促进人工智能技术在生产生活中的应用,避免设立“高标准严要求”的监管制度。人工智能技术与产业的长远有效发展,有赖于其充分地融入社会生产生活,成为推进社会发展的动力。
产生的影响 具体内容
《人工智能法案》引领全球人工智能分级监管开启法规化进程 在人工智能技术迅速发展的时代浪潮下,《人工智能法案》继承了欧盟对数字经济一贯的严格立法态度,从具体制度到处罚力度均体现出高压的一面。《人工智能法案》要求系统提供者和使用者都要遵守数据管理、记录保存、透明度、人为监管等规定,以确保系统稳定、准确和安全。还针对生成式人工智能设立专门监管制度,对人工智能生成的内容引入强制性标签,并强制披露受版权保护的训练数据。对于违反规定者,监管机构会迫使企业从市场上撤回应用程序,企业还可被处以高额罚款。法案覆盖了所有非军事用途的人工智能类型。将AI系统分为低风险、高风险、不可接受风险、特定透明度风险等不同等级,按照风险级别制定相应的监管规则。(例如,根据该法案,不可接受风险等级的AI应用,将会被直接禁止。对于存在系统性威胁的通用AI,将会被更严格地监管。)这些都意味着在欧盟AI分级监管正式进入法规化。
《人工智能法案》带来人工智能创新与合规的平衡 该法案的核心目的是为了在鼓励技术创新和保护人权之间找到平衡点。一方面,鼓励人工智能技术的进步和创新;另一方面又必须确保技术创新不会侵犯公众的基本权利。该法案规定了严格的前置审查程序和履行合规义务,重点对具有高风险的人工智能产品和服务实施治理,要求人工智能公司对其算法保持人为控制,向监管机构提供技术文件,并为“高风险”应用建立风险管理系统。这可以说是AI创新与合规平衡的探索。
《人工智能法案》推动人工智能稳健可持续发展 人工智能法案在某些方面不仅仅是对技术的监管和约束,同时也可以通过刺激投资和创新来促进人工智能的全面发展。这种综合的法案可以为人工智能行业提供明确的方向,同时平衡了AI创新和AI社会责任的双重需求。在以下几个方面产生积极影响:首先是社会接受度提高,减少社会担忧,提高公众对AI技术的接受度。其次是降低负面影响,降低AI技术可能产生的负面社会、经济和伦理影响,增加社会对技术发展的信任。第三是明确监管框架,为企业提供清晰的法规指引,降低法律风险,提高合规性,激发行业规范,通过鼓励社会责任,有助于行业自发形成更为严格的规范标准,推动企业更好地遵守规则。第四是风险管理与可控性提升,减少技术风险,减轻可能的负面后果。第五是推动AI可持续发展与长期利益,能够对社会产生积极影响,构建一个更加健康、可信赖的AI生态系统。
主编丨刘典