1回答

0收藏

ICDM论文:探索跨会话信息感知的推荐模型

IT学院 IT学院 521 人阅读 | 1 人回复 | 2021-03-03

作者: 叶蕊 张庆 恒亮
会话推荐(Session-based Recommendation)是推荐领域的一个子分支, 美团平台增长技术部也在该领域不断地进行探索。不久前,该部门提出的跨会话信息感知的时间卷积神经网络模型(CA-TCN)被国际会议ICDM NeuRec Workshop 2020接收。本文会对论文中的CA-TCN模型进行介绍,希望能对从事相关工作的同学有所帮助或者启发。
ICDM的全称International Conference on Data Mining,是由IEEE举办的世界顶级数据挖掘研究会议,该会议涵盖了统计、机器学习、模式识别、数据库、数据仓库、数据可视化、基于知识的系统和高性能计算等数据挖掘相关领域。其中ICDM NeuRec Workshop旨在从应用和理论角度系统地讨论推荐系统的浅层和深层神经算法的最新进展,该Workshop征集了有关开发和应用神经算法和理论以构建智能推荐系统的最新且重要的贡献。
背景
在大数据时代,推荐系统作为系统中的基础架构,开始扮演着越来越重要的角色,推荐系统可以为用户挑选出自己感兴趣的商品或者内容,从而来减少因信息爆炸带来的一些影响。目前,业界提出的很多推荐模型取得了巨大的成功, 但是大部分推荐方法常常是需要根据明确的用户画像信息进行推荐,然而在一些特定的领域,用户画像的信息有可能无法被利用。
为了解决这个问题, 会话推荐(Session-based Recommendation)任务被提了出来,会话推荐任务是根据用户在当前会话的行为序列去预测用户的下一个行为,而不需要依赖任何的用户画像信息[1]。目前,会话推荐任务已广泛应用于多个领域,例如下一个网页推荐、下一个POI推荐、下一个商品推荐等等。为了覆盖多个领域,所以“会话”的概念不仅限于交易,而是指一次或者一定时期内的消费或者访问的元素集合。
每一个会话(Session)都是一个item的转移序列,所以会话推荐任务可以很自然地被视为序列推荐任务,基于循环神经网络(RNN)的会话推荐模型[2]是应用的主流模型。但是基于RNN模型只对item之间的连续单向转移关系进行建模,而忽略了会话中其他item之间的转移关系。随着图神经网络的热点爆发,基于图结构的会话推荐模型如SR-GNN[3]、GC-SAN[4]被提出来,希望能够克服该点不足。基于图结构的会话推荐模型将会话的item转移序列构建成一个图结构,然后应用图神经网络模型来探索多个item之间复杂的转移关系。目前,基于图结构的会话推荐模型已经成为了State-of-the-art的解决方法,但它们仍然具有一定的限制, 观察如下:
  • 观察 1:几乎所有现存的会话推荐方法都仅仅关注于会话的内部信息,而忽略了跨会话的外部信息 (跨会话的相互影响),跨会话信息往往包含着非常有价值的补充信息,有利于更准确地推断当前会话的用户偏好。如下图所示,以Session 3中的Item_3 Airpods为例, 现存的方法仅仅关注当前会话Session3中的Item_9对Item_3的影响而忽略了其他会话的影响。对于Session1而言, 用户可能具有买耳机的意图而进行同品类比较,所以item_2和item_4会对item_3产生一个品类的影响;对于Session 2而言, 用户可能比较喜欢Apple品牌,所以item_5和item_6会对item_3产生一个品牌的影响。根据上面的观察可知,在Item_Level层次的跨会话影响对于更好地推断item的全局表示至关重要。同时,不同的会话之间也可能具有相似的用户意图和行为模式, 所以对于Session-Level的跨会话影响对于更准确地预测用户在当前会话中的下一个动作也起着非常重要的作用。
    图1 跨会话item的Toy样例


  • 观察 2:基于图结构的会话推荐方法在构建图的过程中,将出现在不同时间步的相同item都视为一个相同节点,这样会丢失序列中的位置信息,以至于不同的序列会话构建出的Session图结构是完全相同的。例如两个不同的会话Session S1:v_i–>v_j–>v_i–>v_k–>v_j–>v_k 与Session S2: v_i–>v_j–>v_k–>v_j–>v_i–>v_k,在下图2中,它们对应的图结构是完全相同的,这不可避免地限制了模型获得准确会话表示的能力。此外,在会话图构造中,仅仅直接连接的两个相邻item之间会建立边,意味着只有在当前item之前最后点击的item才是当前item的一阶邻居,如图2所示。但出现在一个相同会话中,即使没有被连续点击的item之间也具有一定的联系,所以图结构对于保留序列的长期依赖性具有有限的能力。相反,对于时序卷积神经网络(TCN)[5]模型,Causal Convolution使当前item的接受域中的items都可以直接作为一阶邻居进行卷积,并且具有的Dilated Convolution使得较远的items也可以直接作为一阶邻居对其产生影响。
    图2 图结构对于序列数据的建模示意图




作者信息
本文作者叶蕊、张庆、恒亮,均来自美团平台增长技术部。

回答|共 1 个

admin

发表于 2021-3-3 09:47:58 | 显示全部楼层

真不错!!
回复

使用道具 举报

高级模式
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则