客观日本

G科学学术会议建言:“先进技术与数据安全”“可持续发展的移民”“气候变化对策与健康韧性”

2025年06月09日 政策

由日本学术会议等G7各国科学院组成的G科学学术会议5月13日发表了一份面向G7峰会的科学政策建言:应创建类似CERN(欧洲核子研究中心)AI版的机构,以保障全球研究者可广泛公平地获取计算资源、构建数据集,同时支持世界各国研究者间的多向学习。本次会议由加拿大皇家学会科学院担任主席,会议主要讨论了三个主题:“先进技术与数据安全”“可持续发展的移民”“气候变化对策与健康韧性”。

title

在“先进技术与数据安全”的议题中讨论了“AI领域的CERN(CERN for AI)创设”。

建言首先指出,为保护在新技术催生的各种机会和影响中受到不利影响的人群,并确保伴随这些技术而来的经济和政治权力不会进一步集中并加剧现有的不平等现象,治理与监管不可或缺。

建言指出了其中的难点。例如,在防止意料之外的数据泄露与确保数据的质量方面,欧盟的《人工智能法》等法案虽推荐通过数据假名化防止意外泄露,但隐私专家指出:“这种方法往往不够,需要采用差分隐私等更有力的措施。”此外,用于进行有效推断的学习数据,其人口统计学分布需与目标总体一致,但目前尚未找到在不侵犯数据机密性的前提下实现这一点的方法。

政策制定者要消除这些差距,需要通过与专家和公众的双向沟通,将法律制度转化为技术要求。例如,为避免不平等现象进一步加剧,调查对象的抽样需切实反映语言、年龄、种族、性别等人口属性,数据需得到安全管理,为开发便于从业者遵守的法规、监管机构妥善执法的技术,研究者需明确优先探索的方向。

此外,建言还指出了AI应用导致的歧视问题、特定漏洞引发的挑战,以及监管机构需要自行培养专业素养及能力,需要明确监管机构的职责等事项。在此基础上,建言提出,尽管认识到先进技术可能引发国家安全方面的担忧,但考虑全球人类与环境利益才是学术机构和政府的责任,为实现和平与全球安全的合作不可或缺,提议创建“AI领域的CERN”。此举旨在确保全球研究者可以广泛公平地获取计算资源、构建数据集,同时支持“全球北方”和“全球南方”研究者间的多向学习。

由于培养具备资质的监管执行专家存在难度,政策制定者应鼓励通过开源模型推进工作。作为手段,建议以开源社区能够维护软件及其完整性的专项资金和资源分配的形式提供支持。然而,有关允许或限制以强大的AI系统为开源的决定应在民主监督下做出,适用于商用系统的安全规制也必须同样适用于开源系统。

由于生成式AI模型可以创造高质量的媒体,因此也被用于欺诈和欺骗。此类模型可能将错误信息大量注入互联网,而错误信息又可能被AI模型反复利用,导致模型劣化并催生更多的错误信息。水印(电子水印)虽是一种解决方案,但机制脆弱。政策制定者应鼓励开发各种可验证数据来源的技术。

大规模语言模型(LLM)等基于云的AI技术会因电力消耗对全球气候问题产生直接影响。例如,通过ChatGPT进行提问所产生的能源消耗量,远高于普通网页搜索的能耗。凭借“能源消耗量的增长将激励人们加速向可持续电力来源转型”这种缺乏证据的主张无法解决问题。数据及其处理的治理与监管,应寻求与环境和能源的可持续发展政策保持协调。

原文:《科学新闻》
翻译:JST客观日本编辑部