亚马逊研究人员以多种语言训练了AI模型以改善产品搜索

亚马逊在全球14个国家/地区运营,其中有9个国家/地区有资格享受其Prime年度订阅服务。毋庸置疑,该公司确实渴望以多种语言提供其购物体验,尤其是在使用不同方言的客户正在搜索相同产品的情况下。

为了寻求一种有效的翻译多种语言的方法,亚马逊研究人员设计了一种购物模型,称为多任务模型,该模型中的功能在各个任务之间重叠,并且往往会相互加强。他们说,他们的AI同时接受了几种不同语言的数据训练,使用任何一种语言都能提供更好的结果。

正如亚马逊应用科学家Nikhil Rao在博客文章中解释的那样,改进的原因是,一种语言的语料库能够填补另一种语言的语料库的空白。例如,法语中容易混淆的短语可能看起来不像德语中的短语,因此多语言培训可以帮助加深几个产品查询之间的区别。

团队的系统将与产品和产品描述有关的查询映射到表示空间的同一区域中,而与语言无关,主要是为了帮助模型将其从一种语言中学到的知识推广到其他语言。例如,搜索“男生学校鞋”和“擦鞋”最终在该空间的一个区域中彼此靠近,而产品名称“ Kickers Kick Lo Vel儿童学校鞋–黑色”和“ Kickers Kick Lo婴儿班比诺” 《 Scarpe Nero》最终在另一个地区结束。

系统接收两个输入-一个查询和一个产品标题-并且输出一个位,指示该产品是否与查询匹配。编码器组件利用了Google的Transformer架构,研究人员说,该架构的扩展性优于其他架构,而模型的分类器则将查询编码和产品编码结合在一起。

团队通过随机选择一种输入语言并“教”该系统以仅使用该语言对查询产品对进行分类,从而对该系统进行了培训。然后,他们在一系列时代中对它进行了端到端的培训-完整地展示了数据集-在每种输入语言的带注释的样本查询上。调整阶段通过最小化产品标题和查询的编码之间的距离,确保针对不同语言量身定制的输出共享一个表示空间。

亚马逊表示,在涉及10种不同双语模型(5种模型,每种模型与其他4种模型配对),10种三语模型和1种惩罚模型的实验中,他们在短短的15或20个时期内就获得了“强大的成果”。根据F1分数(F1分数),这是AI中一种会误报和误报错误率的常见性能指标,使用法语和德语进行训练的多语言模型的效果比使用单一语言的法国模型高出11%,而使用单一语言的德国模型则胜过5%。另外,使用五种语言(包括法语和德语)训练的模型比法语模型高24%,比德语模型高19%。

“结果表明,多语种模式应该为我们的客户提供更一致满意的购物结果,” Rao说。“在正在进行的工作中,我们将继续探索多任务学习的功能,以改善客户的购物体验。”