日本探讨如何应对AI伦理问题

机器人 2018年06月14日

2018年6月4日、5日在东京召开的“世界数码高峰会”的题目是“对奇点的挑战”(「世界デジタルサミット2018、 シンギュラリティへの挑戦」)。

日本探讨如何应对AI伦理问题

“奇点(Singularity)”是美国作家卢克·多梅尔在《人工智能》一书中提出的一个概念,指的是机器在智能方面超过人类的那个点。也就是人工智能(AI)超越人类的那个点。围绕着奇点的争论,有两种不同的声音。泛人工智能(或者叫广义人工智能AGI(Artificial General Intelligence))研究者认为奇点的出现则意味着人类时代的终结,AI将成为宇宙的主宰。AGI的研究对象类似铁臂阿童木、电影《终结者》里的红眼主角,以及电影《2001:宇宙奥德赛》里的HAL9000等。对 AGI的研究及其奇点的出现高度警觉的知名人士有特斯勒总裁艾伦・马斯克,已故天体物理学家霍金,以及微软创始人比尔・盖茨等。另一方面,狭义人工智能ANI(Artificial Narrow Intelligence)研究者所关心的命题则是,应用于各个领域的AI累积起来会不会在某一天到达奇点。

对AGI乃至其奇点的关注主要以美国和英国的学者居多。因为这已经超出纯科学的范畴,涉及哲学、社会学的命题。在日本更多地关注AI的实用,亦即AI在某一个领域的应用。对于奇点会不会出现,何时出现这样的终极关怀并不太在乎。

然而,在具体应用AI的过程中一样会遇到单纯科学技术无法对应的问题。譬如,AI的伦理问题。也就是AI的应用会不会带来偏见、会不会侵犯人类的隐私、危及人类的安全。我们知道,AI大都采用深度学习模式,靠大量消费过去的数据来预测将来。机器学习的过程是黑箱作业,科研人员在喂给机器数据以外,并不知道它是如何学习、建立模型并得出结论的。因此,虽然能得到好的结论,但是却无法用令人臣服的逻辑做出解释。同样,当AI出现故障时,对引起故障的原因也很难迅速描述清楚。这是AI服务商面对客户的询问时,最为头痛的地方。另外,大数据采集的母本自然带有该母本的特性,如果将A数据群的学习模型应用于B数据群,显然B会无形地受到A的影响。譬如,在选拔人才时所用的母本数据群采集自某一个地区,某一个学校,某一些团体,则自然与这些特征有关的应聘者会受到重视,而其他群体则被忽视。

AI的伦理问题还涉及到价值判断。因为代码是程序员写的,在碰到无解的情况下,其作何判断呢?譬如,自动驾驶汽车在行驶过程遇到这样的突发场景,前方有5个闯红灯的步行者,已经来不及刹车,如果继续往前开就会把步行者撞死,但如果转向就会撞到障碍物,使车上的三名乘员死亡。这样的问题,如果程序员是出于汽车商的利益,则其代码就会优先车上的乘员,尽管从人数上来说,这样做的后果伤亡更严重。当然,生命的尊严是不能用人数的多少来算计的。但是,遇到价值判断时,该怎样与AI沟通?人类可以把价值判断的权力拱手让给AI吗?

日本AI业界已经有呼声,提出对AI伦理问题的重视。鉴于对AI终极关怀研究的最前沿在美国与欧洲,一旦在欧美形成的准则规范运用到东方时,会不会引起类似上述的“歧视”与“偏见”?这更引起日本业界的危机感。“世界数码高峰会”上就有有识之士呼吁关注AI伦理。民间企业已经开始行动,寻找规范AI伦理的手段与途径。在国际电工委(IEC)与国际标准化组织(ISO)的联合技术委员会(JTC 1)刚刚成立的人工智能分科会(SC42)里,就由日本企业担任其中一个项目的召集人。

政府层面也开始行动。4月25日由日本内阁府牵头,联合总务省、文部科学省、厚生劳动省、经济产业省以及国土交通省,共同设立了一个“以人为中心的AI社会原则讨论会”,讨论将AI应用于社会的基本原则与伦理规范。对内面向AI技术的中长期研究开发,对外面向G7(七国首脑峰会)以及OECD等国际研讨。

但是,整体上看,日本的人才储备并不很乐观,如何在处于颓势的IT业界,找到AI的立足点,光靠关注AI伦理问题,显然是不够的。如何才能尽快培养出精通哲学、法学、科学的跨学科IT综合人才,恐怕才是日本业界最吃紧的课题。

供稿 戴维
编辑修改 客观日本编辑部

相关阅读