全球AI监管新纪元:欧盟AI法案的影响与挑战

2024-11-13 22:31:49 来源: 经济观察报 作者:谭寅亮

  除了已知的冲突和挑战,在人工智能领域,人们还会面对诸多“未知的未知”。人工智能在发展过程中有待解决的问题数量,或将远超人类现有的认知,但解答过程离不开求同存异。在多样性中尊重差异、寻求共识,需要人类智慧。

  作为全球首部全面监管人工智能的法规,欧盟的《人工智能法案》(下称“欧盟AI法案”)已于2024年8月1日正式生效。

  为确保相关各方有足够的时间来适应新的法规要求,欧盟AI法案的各项规定将会分阶段实施:部分AI应用程序的禁令在法案生效6个月后开始适用,AI开发者的行为准则在法案生效9个月后实施,对于通用AI的限制会在法案生效12个月后开始。整个法案的条款将在24个月后的2026年中期全面适用。

  该法案采用基于风险的监管方法,对AI系统进行分类,针对高风险应用实施严格的规定,同时设立了禁止事项清单。欧盟AI法案覆盖了从市场准入、运营责任到透明度要求的全链条规则,对在欧盟境内或影响欧盟市场的AI系统和活动产生约束力。

  由于欧盟AI法案采用跨境监管的原则,不仅适用于欧盟内部的实体,还包括在欧盟外开发、但成果在欧盟内使用的AI系统。因此,在全世界范围内,特别是中美两国的AI产业链企业都不可避免会受到法案的影响。

  通过该法案的实施,欧盟再次试图向全球市场展示“布鲁塞尔效应”:利用其统一市场的规模优势,将单方面的严格标准和监管推向全球并显著影响全球政策,进一步提高自身竞争力。正因如此,该法案也在AI产业内外引发了激烈讨论,主要围绕以下几方面。

  一是合规成本的增加。严格的法案规定导致中美两国的AI企业在进入欧盟市场时将面临高昂的合规成本, 包括技术改造、流程调整以及可能需要的第三方审计费用等。

  二是技术限制和创新障碍。法案对AI技术的研发和部署施加严格的限制,可能会阻碍AI技术的发展和创新速度。

  三是市场准入门槛的提高。更高的监管标准不仅适用于希望进入欧盟市场的AI开发企业,还包括使用AI技术的产品和服务提供商。

  四是数据隐私和保护要求。法案延续了欧盟对于个人数据保护的严格要求,企业在处理用户数据时需要采取更加谨慎的态度。

  五是不确定性的增加。法案全面实施还需要近两年时间,在实际操作过程中可能存在解释上的模糊性,欧盟不同成员国也可能存在具体的执行差异。

  尽管欧盟AI法案体现了对人工智能的安全性、透明度和人权的关注,但基于以上忧虑,人们仍会追问:该法案是否给整个AI产业链戴上了紧箍咒?该法案是否通过高合规成本和准入门槛给AI领域的先行者和大公司(或欧盟企业)建立了护城河?中国和美国是否会参考并建立类似的合规和准入要求?

  要回答以上问题,我们还需从中美欧各自的文化、政治体系、经济环境以及不同的历史背景,来理解世界各国AI监管体制上的差异。

  美国:市场驱动

  回顾网络信息技术的短暂历史可以看出,美国在芯片、软件、硬件、人才和资金方面的领导地位,为其在全球互联网发展的三个主要阶段——Web 1.0、Web 2.0以及AI时代,确立了显著的竞争优势。

  在Web 1.0时代,美国凭借强大的芯片和软件能力,孵化了雅虎、AOL(美国在线公司)等第一批互联网巨头。这些企业利用高效的硬件和软件解决方案,提供了新闻、邮件和搜索等静态网页服务,引领了互联网早期的商业化进程。

  进入Web 2.0时代,社交网络、云计算和大数据分析的发展,离不开美国软件产业的创新和贡献。脸书、推特和YouTube等社交平台的兴起,得益于美国在数据处理、存储和传输技术上的领先地位。这些美国网络科技巨头在全球范围内持续输出的同时,也向美国本土进行数据回流,进一步产生算法优势。

  在AI时代,美国的优势体现在从算法研发到芯片设计的全方位覆盖。谷歌、微软和IBM等企业,在机器学习、自然语言处理和计算机视觉等领域取得了突破性进展;英伟达的GPU加速计算能力则为深度学习提供了必要的算力支持。

  美国在AI领域的领先地位,使其在自动驾驶、医疗诊断、金融科技等多个行业的应用中取得先机,推动全球经济向智能化转型。美国在资金、科技人才培育和储备方面的优势,也贯穿了互联网科技发展的全过程。

  作为全球最大的风险投资市场,美国每年有数以千亿美元计的资金流入互联网科技领域,2023年仅AI领域的私人投资就达到672亿美元。此外,成熟的证券交易体系也为科技公司上市融资提供了便利。

  上述AI领域的科技巨头与资本市场结合,深度参与和影响了美国对AI的立法监管。美国倾向于自由市场的传统,强调个人主义和最小政府干预,这些都促使美国在AI监管上更侧重于市场的自我调节和技术创新,主要以倡议性文件和分散监管的方式来应对AI的监管。

  联邦层面虽然陆续形成了一些对人工智能的法律和政策,但监管内容更注重AI系统的透明度、反歧视、数据治理等议题,重大的限制性、禁止性规定则主要针对运用AI的政府活动。

  在国家层面统一监管缺席的状态下,美国各州的AI立法相对较为活跃。根据斯坦福大学的统计,2023年美国各州总共提出了150项关于AI的法案。其中,加州《前沿人工智能模型安全创新法案》(SB-1047)最为引人注目。

  该法案旨在为高风险的人工智能模型设立常识性的安全标准,以防止重大危害,如大规模人员伤亡、超过5亿美元损失的网络安全事件等,要求大规模AI模型的开发者部署前进性安全评估、具备紧急关停能力、提交年度合规认证以及上报安全事件等。

  相比欧盟AI法案,《前沿人工智能模型安全创新法案》的监管范围实属有限,但仍然引发了广泛争议。

  一方面,支持者认为它能有效降低AI技术造成的潜在风险,确保公众安全和社会稳定。另一方面,反对者担心严格的监管会抑制创新,限制技术进步的速度。李飞飞、吴恩达等硅谷知名人士以及包括OpenAI在内的知名AI企业都公开表达了对法案的强烈异议。

  OpenAI建议应建立明确的联邦框架而非州级监管,并强调这对美国在AI全球竞争中保持竞争优势至关重要。这种对内宽松、市场驱动的监管逻辑,确实符合美国维持AI领域国际竞争力的需要。对外,美国从业界到政府都视中国为人工智能领域的强力竞争对手。

  但加州的立法者却对上述提议表示怀疑。正如加州数据隐私法是在美国缺少联邦级别的统一立法下通过的,全美统一的AI监管缺失,正是加州这一全球AI重镇立即行动的原因所在。

  尽管8月加州众议院审核通过了法案,加州州长在9月底却以“缺乏灵活解决方案”等理由签字否决了法案。

  这些分歧都凸显出:在美国传统经济文化背景之下,建立与欧盟AI法案类似的统一监管体系面临重重挑战。

  欧盟:以市场换监管

  欧盟对人工智能的监管思路,则体现了自二战以来欧盟国家普遍重视公民权利、隐私和数据保护的文化和价值观,也受到其立法惯性的影响。

  欧盟自2016年起就不断探索对人工智能技术应用的监管体系构建,其政策重点是保障个人权利。欧盟追求政治共识的集体决策机制,也必然导致其监管框架在制定过程中要考虑更广泛的公众利益和社会影响。

  在这方面,欧盟AI法案与2018年生效的《一般数据保护条例》(GDPR)一脉相承,通过严格标准和高额罚款来确保参与欧盟市场的全球企业,都尊重欧盟的基本人权标准和价值观。

  从商业角度出发,欧洲也有成功的互联网公司,但大多数未能达到中美同行的规模和影响力,所以欧盟的立场会更关心是否能有效约束来自中美的头部AI企业。事实上,欧盟AI法案规定的监管门槛使得其监管对象也直指美国头部AI企业。

  欧盟AI法案的生效,使得欧盟在人工智能监管方面能够以此为杠杆,利用其布鲁塞尔效应,保护欧盟内相关企业的发展。同时,欧盟内部的AI技术发展也不均衡,在追求建立统一的数字市场过程中,欧盟内部也不免产生各方面的博弈,这也意味着需要一套统一的监管框架来促进欧盟内部的贸易和公平竞争,以避免出现碎片化的市场环境。

  在欧盟AI法案生效前,欧盟首先建立了人工智能办公室,负责监督执行AI法案中的通用人工智能等部分内容,并在欧盟成员国之间进行有效的协调和合作。

  中国:寻求平衡

  从Web 1.0时代到人工智能时代,中国互联网行业的发展历程,受到了技术进步、市场环境变化以及政策导向等多重因素的影响。在这一过程中,中国还经历了从模仿到创新、从跟随到引领的角色转变,最终塑造了一个独特的互联网生态和监管环境。

  在Web 1.0时代,中国的互联网起步相对较晚,主要模仿西方的成功模式,如新浪、搜狐等门户网站的崛起,也是借鉴了美国雅虎的经验。

  在Web 2.0时代,互联网变得更加互动和社交化,中国互联网公司开始展现出强大的创新能力。腾讯QQ、微信等社交软件成为拥有庞大用户数量的平台,淘宝、京东等电子商务平台也改变了人们的购物习惯。这一阶段,中国互联网企业在商业模式和服务体验上实现了超越,形成了具有中国特色的互联网生态系统。

  随着大数据、云计算和机器学习等技术的发展,人工智能逐渐成为互联网行业的重要驱动力。凭借庞大的市场规模、丰富的应用场景以及政府的大力支持,中国也成为全球人工智能领域的主要参与者之一。阿里巴巴、百度、腾讯等巨头纷纷加大在AI领域的投入,许多创业企业也扬帆出海。

  中国对人工智能的监管体系也是在上述背景下逐渐形成的。中国的政治体制有利于政策制定的集中化,政府能够快速主导制定和实施全国性的AI战略和监管政策。一方面,政府认识到AI技术对于提升国家竞争力的重要性,通过设立专项基金、制定产业发展规划等方式,积极促进AI技术的研发和应用。另一方面,考虑到AI技术可能带来的隐私泄露、就业冲击等问题,政府也在逐步建立健全相应的法律法规。

  目前,中国已建立了由《网络安全法》《数据安全法》《个人信息保护法》《生成式人工智能服务管理暂行办法》等组成的人工智能监管基本框架。2023年初,《人工智能法》也被列入了立法计划。从立法过程中条文的简化可以看出,中国在平衡监管的原则下,给AI技术和AI企业提供了更大的发展空间。

  AI技术是进一步提升国家竞争力、发展新质生产力的关键技术。因此,中国采取了一种平衡的监管策略,既注重产业发展又强调风险管理,在保障社会稳定和促进经济发展之间寻求平衡,注重监管的科学性和有效性。

  总体来说,中国注重事前监管、兼顾事中和事后监管的全生命周期监管,重视个人信息保护和防止技术滥用,与欧盟在监管理念上较为接近,对AI的监管呈现出包容审慎的态度。特别是在生成式人工智能服务管理方面,中国采取了先行先试的方式,在实践中摸索有效的监管路径。此外,中国还致力于参与国际对话,共同探讨制定跨国界的AI治理规则。

  综上所述,美国、欧盟和中国在AI监管体系上的差异,主要由政策导向、经济文化背景与价值观等多方面因素造成。美国的监管方式可能有利于创新和技术突破,但可能会牺牲部分隐私和安全性。欧盟的监管则更倾向于保护公民权利,但可能会限制市场的灵活性和创新速度。中国的监管结合了政府的引导和支持,旨在平衡产业发展与社会福祉。

  这些差异反映了不同国家和地区在AI监管方面的不同需求和优先考虑事项。因此,短期内,中美不会全面建立类似欧盟AI法案的监管体系。

  AI的全球治理

  亨利·基辛格等很多学者总结过,人工智能具有天然的全球性,因此进行AI全球治理势在必行,这需要建立一个类似于国际原子能机构的组织。但该构想也面临严重挑战,需要克服地缘政治的不信任以及经济竞争等各种因素。

  在2023年11月的AI峰会上,包括中国、美国、欧盟在内的多个国家和地区签署了宣言,同意合作建立AI监管方法。各方在AI治理的基本原则上达成了一定程度上的共识,如支持透明度、负责任的AI开发和使用等。

  中美之间也进行了首次政府级别的AI对话,讨论了技术伦理等问题。但各方在利益诉求、监管哲学、技术伦理与人权标准等方面的差异,以及实际的技术限制和数据流动的限制,仍会导致一系列冲突。

  除了已知的冲突和挑战,在人工智能领域,人们还会面对诸多“未知的未知”。人工智能在发展过程中有待解决的问题数量,或将远超人类现有的认知,但解答过程离不开求同存异。在多样性中尊重差异、寻求共识,需要人类智慧。

  (谭寅亮系中欧国际工商学院决策科学与管理信息系统教授,张毅系方达律师事务所合伙人,王琦系中欧国际工商学院研究员)

关注同花顺财经(ths518),获取更多机会

0

+1
  • 有研新材
  • 科大讯飞
  • 供销大集
  • 金桥信息
  • 中国卫通
  • 启明信息
  • 世纪鼎利
  • 日出东方
  • 代码|股票名称 最新 涨跌幅