“人工智能+”的风险管控与伦理规范(4 / 5)

随便泄露。

另外,美国特别看重“ai的国家安全”,比如禁止美国的ai公司把先进的ai技术卖给其他国家(尤其是可能威胁美国安全的国家),防止这些技术被用来制造武器、破坏美国的网络安全。比如美国之前就对openai、谷歌等ai巨头提出要求,不许向中国等国家出口能用于军事、高端制造的ai模型和技术,担心这些技术被“滥用”。

美国这种“灵活监管”的好处是,ai企业有更多创新空间,不用被太多规则束缚,能快速推出新的ai产品——比如chatgpt、gpt-4这些爆款ai,都是美国公司先做出来的。但坏处也很明显,因为没有统一的规则,不同部门的监管标准不一样,ai企业可能会“钻空子”,比如在医疗领域遵守fda的规则,但在其他领域就放松要求,容易出现风险。而且美国对ai伦理的监管相对宽松,比如ai歧视、ai隐私泄露等问题,处理起来没有欧盟那么严格,用户权益可能得不到充分保护。

323 中国:监管“务实”全,又要促发展

咱们中国对ai的监管,走的是“务实路线”——既不像欧盟那么“严”到可能限制创新,也不像美国那么“散”到容易出漏洞,核心是“在安全的前提下,推动ai发展”,让ai能真正服务于经济、社会和民生。

这些年中国出台了不少ai监管政策,而且针对性很强,都是围绕大家最关心的领域来定规矩:

- 先说说ai安全,这是中国监管的重点。2024年中国出台了《生成式人工智能服务管理暂行办法》,明确要求生成式ai(比如chatgpt、文心一言这种能写文案、画画的ai)不能生成“违法违规内容”,比如不能生成谣言、暴力、色情内容,也不能生成危害国家安全的内容。而且ai企业在上线产品前,必须对生成的内容进行审核,要是出了问题,企业得担责任。比如之前有个ai聊天机器人,用户问它“怎么制造危险物品”,它竟然给出了步骤,后来这个ai就被下架整改了——这就是中国对ai安全的严格把控。

- 再说说隐私保护,这也是中国监管的核心。2021年中国出台了《个人信息保护法》,明确规定ai企业收集用户数据必须“合法、正当、必要”,不能随便收集。比如人脸识别ai,只能在需要的场景下用(比如火车站安检、小区门禁),不能在商场、超市等地方随便装人脸识别摄像头;而且收集人脸信息前,必须明确告诉用户“要收集你的人脸,用来做什么”,还要得到用户同意。如果企业偷偷收集人脸信息,会被重罚——之前就有一家连锁超市,在门店装了人脸识别摄像头,没告诉用户,被罚款了50万元。

- 还有ai赋能实体经济,中国监管不仅“管风险”,还“促发展”。比如政府鼓励ai企业把技术用到制造业、农业、医疗、教育等领域,比如用ai优化工厂生产线,提高生产效率;用ai监测农田的病虫害,帮助农民增产;用ai辅助医生诊断,让偏远地区的人也能看上“好医生”。为了支持这些方向,政府还会给ai企业提供补贴、税收优惠,比如有些地方对ai医疗企业,会减免3年的企业所得税,鼓励它们研发更多好产品。

中国这种“务实监管”的好处很明显:一方面,能守住安全底线,防止ai出现违法违规、泄露隐私等问题,保护用户和社会的利益;另一方面,能给ai企业足够的发展空间,让ai技术真正落地到实体经济中,而不是“只停留在实验室里”。比如现在中国的ai制造业、ai医疗都发展得很快,既带动了经济,又给老百姓带来了实惠。

33 全球伦理治理的难点:差异难统一,但合作是趋势

虽然各国都在推进ai监管,但全球伦理治理还是有很多难点——最核心的就是“差异难统一”。比如欧盟觉得“ai伦理比创新重要”,美国觉得“创新比伦理监管重要”,中国觉得“安全和发展要平衡”,大家的优先级不一样,想制定一套“全球通用的ai规则”特别难。

再比如,有些发展中国家的ai技术还很落后,它们更关心“怎么用ai发展经济、改善民生”,比如用ai解决贫困、疾病问题,对“ai伦理监管”的需求没那么迫切;而发达国家的ai技术已经很先进,它们更关心“怎么防止ai滥用、保护人权”,比如防止ai歧视、泄露隐私。双方的诉求不一样,很难达成一致。

还有,ai涉及“国家利益”,比如ai技术能用于军事、高端制造、网络安全,这些都是关系到国家竞争力的领域。有些国家担心,要是同意了统一的全球规则,可能会限制自己的ai发展,影响国家利益,所以不愿意轻易妥协。比如美国就不愿意接受欧盟那种严格的监管规则,担心会影响美国ai企业的竞争力。

但即便有这么多难点,“全球合作”还是大趋势。因为ai的风险是全球性的——比如ai生成的假新闻,能通过互联网快速传到全世界,引发全球恐慌;ai网络攻击,能攻击其他国家的电网、银行系统,影响全球安全。这些问题靠一个国家根本解决不了,必须各国一起合作。

比如