图为2022年11月7日,在第五届进博会技术装备展区的人工智能专区,体验者借助VR头戴设备感受在虚拟工作空间“隔空击掌”。新华社记者侯俊 摄
□ 法治日报记者 王卫
4月3日,德国联邦数据保护专员乌尔里希·凯尔伯称,出于对数据安全保护的考量,德国可能会效仿意大利,暂时禁用ChatGPT。他透露,禁用该软件的行为将属于德国联邦数据保护机构的职权范围。此外,德国联邦数据保护机构要求意大利监管机构提供有关其阻止ChatGPT的更多信息。
专家指出,推出两个月即拥有1亿活跃用户,ChatGPT成为历史上增长最快的消费者应用程序。固然ChatGPT在实际使用中表现惊艳,然而囿于大规模语言模型自身、数据原因等局限,仍存在成本高昂、信息泄露等劣势。如何平衡科技创新与隐私保护仍需各方不断探索。
多国跟进限制措施
近期,多国对ChatGPT的不满、恐慌、抵触等负面情绪正持续发酵。
路透社报道称,意大利个人数据保护局(DPA)近日宣布从3月31日起禁止使用ChatGPT,限制OpenAI处理意大利用户信息数据,同时对其隐私安全问题立案调查。此举引发多国监管机构和企业的关注,德国、法国、爱尔兰等国家已开始准备效仿意大利的做法,加强对ChatGPT的监管。
德国《商报》4月3日援引乌尔里希·凯尔伯的话称,原则上,类似屏蔽行动在德国也是可能的。德国已要求意大利提供有关其禁令的进一步信息。
与此同时,据英国路透社报道,法国和爱尔兰的个人数据监管机构已经和意大利的同行取得联系,以了解更多有关该禁令的依据。爱尔兰数据保护机构(DPC)的一位发言人说:“我们正与意大利监管机构跟进以了解他们采取行动的依据,我们将与所有欧盟数据保护机构协调此事。”
加拿大广播公司(CBC)4月4日报道称,加拿大联邦隐私监管机构宣布,已经对OpenAI展开调查,因为该公司涉嫌“未经同意收集、使用和披露个人信息”。报道同时提到,美国总统拜登及其科技顾问委员会在当日举行的会议上也讨论了人工智能的“风险和机遇”。
据韩国《国民日报》4月3日报道,包括三星、SK海力士、浦项制铁公司在内的多家韩企正在采取限制使用ChatGPT的措施,严防员工泄密。LG电子公司虽然未发出禁令,但要求员工进行“人工智能及数据使用”方面的培训。
另据日经新闻网报道,出于对信息泄露的担忧,包括软银、日立、富士通、三菱日联银行和三井住友银行在内的日本公司已开始限制在业务运营中使用ChatGPT等交互式人工智能服务。
但瑞典的隐私监管机构表示,目前还没有禁止ChatGPT的计划,也没有与意大利的监管机构取得过联系。西班牙的监管机构称,尚未收到任何有关ChatGPT隐私泄露或是其他方面的投诉,不过并不排除未来展开调查的可能性。
涉嫌信息泄露风险
这并不是ChatGPT第一次引发争议。自从该服务推出后,就有人担心它会被用来作弊、传播假消息或误导公众。
ChatGPT由美国人工智能研究实验室OpenAI于2022年11月30日推出,具备非常惊艳的语言理解、生成、知识推理能力。据报道,推出后短短几天内,其注册用户超过100万,两个月活跃用户数已达1亿,引爆全网热议,成为历史上增长最快的消费者应用程序,掀起了人工智能领域的技术巨浪。但不可否认的是,当ChatGPT运用更为广泛的同时,与之相对应的疑问和担忧也接踵而至。
业界认为,ChatGPT目前技术尚处于早期阶段,其自身存在较多问题。首先,身为大规模语言模型,ChatGPT使用成本高昂。ChatGPT基础大模型训练成本高、部署困难、每次调用花费不菲,还可能有延迟问题,对工程能力有很高的要求。数据显示,OpenAI为了让ChatGPT的语言合成结果更自然流畅,共用了45TB的数据、近1万亿个单词来训练模型。这大概相当于1351万本牛津词典。训练一次的费用高达千万美元。
其次,人工智能技术在信息泄露等方面的社会性风险,会因为使用的庞大数据规模被进一步放大。对于司法工作而言,在司法人员和ChatGPT交互过程中,ChatGPT会获取大量业务相关数据,这些数据在案件未符合司法公开条件之前,不能随意公开,一旦发生数据泄露,可能导致严重后果。此外,OpenAI的使用条款并未对用户可能输入ChatGPT的数据信息提供任何保护。
再次,ChatGPT准确率不高的问题不容忽视。由于ChatGPT的大部分答案都是从已知内容中摘录或搜集而来,对于未知的或者ChatGPT知识的盲区,则可能会给出错误或者不恰当的建议意见。比如,司法工作人员在办案工作中常常需要兼顾“天理国法人情”,需要考量办案的法律效果社会效果政治效果的统一,具有一定的人性化思考,而这些往往是人工智能有所欠缺和不足的,因此,此时ChatGPT给出的建议,会存在一定程度的偏颇。
数据安全任重道远
对于ChatGPT暴露出的相关风险,欧盟对个人数据的保护走在前列。据报道,欧盟即将出台的《人工智能法案》采取了一种基于风险程度对人工智能系统进行分类管理的监管思路。但是,类似ChatGPT这样的生成式人工智能产品对当前的风险分类方法提出了挑战。
事实上,欧盟委员会早在2021年便提出了《人工智能法案》条例草案,不过提案的推进并没有预想中顺利。欧洲议会议员们争议的核心是监管是否会阻碍创新,即如何平衡数据隐私与避免扼杀人工智能的创新和投资。其中最具争议的领域是决定哪些人工智能系统将被归为“高风险”。有知情者透露,欧洲立法者目前正就多方面限制“高风险”AI工具的新规则进行磋商。
不仅欧洲议会议员们尚未就提案基本原则达成一致,政府内部也引发了监管ChatGPT与否的争议。
4月2日,意大利副总理兼基础设施与可持续交通部长马泰奥·萨尔维尼在社交平台上公开发文,批评DPA暂时禁止ChatGPT的决定,称其屏蔽行为太“过度”了。他称该监管机构的行为“太过虚伪”,这种做法像是没有常识一样,“几乎所有的在线服务都无法避免涉及隐私问题”。在他看来,这项禁令可能会损害国家的商业发展和科技创新,希望能快速找到一个解决方案,早日恢复ChatGPT在意大利的使用。德国政府发言人同样认为没有必要禁止ChatGPT。
专家表示,一边是坚决禁用,一边是宽容放行。争议背后也说明,如何保护公民数据隐私、规避隐私泄露风险等问题,将是人工智能与大范围覆盖社会生活后,各主体必须要考虑和解决的问题。过于决绝的“一刀切”做法也不值得提倡,监管政策既要有可商讨的弹性空间,也要能让企业充分释放出创新活力,更重要的是保护好公民的个人数据隐私与信息安全。这不仅是意大利、德国如今面临的难题,各国都需要在保护数据安全和监管防控过度之间做好平衡,用杠杆支撑起科技创新与隐私保护两端。