客观日本

5个月提供生成AI试用,启用年轻人缩短开发

2023年09月15日 信息通信

NEC于8月开始试验性提供自主研发的人工智能(AI)。尽管只限定于部分客户,但自3月份开始正式研发以来,仅用了5个月就获得了这一成果。这是NEC通过招聘精通生成式AI研究和商业化的年轻人,并启动AI专用超级计算机获得的。NEC力争将生成式AI培育成重点发展领域。

title

日本国内AI计算中最大规模的超级计算机于3月开始运行,使得LLM的快速开发成为可能

小山田昌史主任研究员回顾开发生成式AI的经历时表示:“多年来使用(生成式AI的基础)大语言模型(LLM)的工作经验派上了用场。”

小山田年仅34岁,在NEC内属于年轻员工,但此次担任了生成式AI项目的负责人。作为自然语言处理相关的AI研究员,自2020年起他就开始改进美国谷歌开发的语言模型“BERT”,并发表了多篇学术论文,另一方面,在2018年还主动参加业务推进部门积累了经验。这些在业务开发方面的经验以及在公司内建立的人际关系,为生成式AI的开发提供了有力支持。

从2022年11月美国OpenAI发布了“ChatGPT”之前,小山田先生就已经预见到LLM有可能改变社会商业格局。随着ChatGPT迅速传播,小山田先生更加坚定了自己的想法,并积极志愿参与公司内生成式AI的自主研发工作。

在AI的核心技术的机器学习领域,从2000年到2022年,NEC在门槛很高的国际学术会议上获得通过的论文数量为215篇,位居世界第十,与排名第八的亚马逊公司和排名第九的中国腾讯控股(Tencent)不相上下。然而,在AI领域的盈利方面,NEC与海外科技公司之间存在一定差距。因此,越来越多的声音呼吁提拔年轻员工来担任关键职位,最终公司选择了小山田。

title

34岁的小山田担任生成AI开发负责人

此次开发的大语言模型(LLM)在日语方面性能出色。在复杂和长篇文章的阅读理解方面,其正确率高于国内外公开的其他LLM。性能指标之一的参数数量为130亿,远远少于ChatGPT的基石“GPT-3”。将LLM用于普通服务器,使用户能够降低运营成本和电力消耗。

尽管参数数量较少,但通过增加训练数据的量来提高LLM的性能。借鉴了在AI研究中积累的经验,为LLM提供了适用于学习的数据,不仅包括日语,还包括英语和编程语言。小山田指出GPT-3读取的文档换算成单词数量相当于数千亿个词3000亿个令牌,但NEC的LLM学习的数据量是“GPT-3的数倍以上”。

自3月份开始启用了适用于学习庞大数据不可或缺的AI计算的大规模超级计算机,对于AI的研究提供了强有力的支持。它搭载了来自美国英伟达公司的928个GPU(图形处理单元),是日本国内AI计算中规模最大的。

在AI领域,人脸识别技术是NEC的强项,但小山田表示:“人脸识别系统的运用和LLM的大规模学习有很多共通之处”。NEC为印度国民提供的包含面部生物识别在内的身份认证系统等,积累的与AI相关的大规模基础设施方面的管理经验也对LLM的快速学习提供了帮助。

为实现LLM商业化,项目团队完善了被称为“API”的便于外部企业使用的合作机制和定制功能等开发环境。在7月,还成立了一个100人规模的专家团队,来指导企业如何有效地使用生成式AI。

许多公司都对这个项目寄予了很大的期望。包括日本东日本铁路公司、日本三井住友银行、日本积水建房株式会社以及日本早稻田大学等10家日本代表性的组织将首先尝试这项技术的应用。

NEC的目标是2025年度之前在生成AI相关业务中实现累计销售额达到500亿日元以上。首席数字官(CDO)吉崎敏文表示:“我们将提供高度专业化的生成AI,启动日本市场。”此次的推出试用是否能成为日本在起步较晚的AI领域的一次反击,值得大家关注。

日文:大越优树、《日经产业新闻》、2023/8/30
中文:JST客观日本编辑部