关于人工智能:2022对比学习Contrastive-Learning在各大顶会上的最新研究进展

3次阅读

共计 18456 个字符,预计需要花费 47 分钟才能阅读完成。

举荐零碎重在开掘用户偏好,无论是针对数据稠密、噪声问题或是加强其余成果,比照学习无疑是精益求精。察看 22 年的举荐顶会的相干论文,咱们能够察看到比照学习呈现的频率显著增高,并且各种改良也层出不穷,具备多样化倒退的趋势,包含但不限于

  • 图数据加强形式的改良(NodeDrop、EdgeDrop、随机游走、引入辅助信息的 drop);
  • 基于多视图的比照学习(例如在图的构造视图、语义视图、解耦子图间进行比照学习,能够利用到社交网络,常识图谱、bundle 举荐、跨域举荐等方向);
  • 利用节点关系进行比照工作(利用节点与街坊节点的关系作为样本选取准则、能够思考 GNN 节点在不同层的输入示意间的关系、超图);
  • 其余角度的比照学习工作(例如,对 embedding 增加噪声)。

本文从 22 年的顶会上选取了 5 篇采纳比照学习的举荐相干论文与大家分享~

一、NCL

论文题目:Improving Graph Collaborative Filtering with Neighborhood-enriched Contrastive Learning

论文起源:WWW’22

论文链接:https://doi.org/10.1145/34854…

代码链接:https://github.com/RUCAIBox/NCL

1 NCL 核心思想

利用用户交互历史信息构建的二部图,节点关系能够分为四种:1. 类似用户;2. 类似物品;3. 用户 - 物品交互关系;4. 具备类似语义关系(例如用户用意等)。大多数举荐工作围绕用户 - 物品交互关系开展,而对同质节点之间的构造关系思考较少,对语义关系思考的次数则更少。NCL 翻新点则在于利用举荐零碎中节点的潜在关系设计比照学习工作(包含构造关系与语义关系)。

在这里咱们重点阐释如何去构建这两种比照学习工作,残缺具体的算法细节还请大家观看原文~

2 算法细节

节点级的比照学习工作针对于每个节点进行两两学习,这对于大量街坊来说是极其耗时的,思考效率问题,文章学习了每种街坊的繁多代表性 embedding,这样一个节点的比照学习就能够通过两个代表性 embedding(构造、语义)来实现。

构建基于节点构造关系的比照学习工作:将每个用户(物品)与它的构造街坊进行比照。

因为 GNN 的第 $k$ 层输入蕴含了 $k$-hop 街坊的聚合信息,而基于交互二部图的 GNN 模型的信息在图上通过偶数次流传,则能够聚合同质节点的街坊信息。

因而,为了防止构建其余图,咱们间接利用 GNN 的第 $k$ 层输入作为一个节点的 $k$-hop 街坊的示意,将节点本身的 embedding 和偶数层 GNN 的相应输入的 embedding 视为正样本对

$$
\mathcal{L}_{S}^{U}=\sum_{u \in \mathcal{U}}-\log \frac{\exp \left(\left(\mathbf{z}_{u}^{(k)} \cdot \mathbf{z}_{u}^{(0)} / \tau\right)\right)}{\sum_{v \in \mathcal{U}} \exp \left(\left(\mathbf{z}_{u}^{(k)} \cdot \mathbf{z}_{v}^{(0)} / \tau\right)\right)}
$$

$$
\mathcal{L}_{S}^{I}=\sum_{i \in I}-\log \frac{\exp \left(\left(\mathbf{z}_{i}^{(k)} \cdot \mathbf{z}_{i}^{(0)} / \tau\right)\right)}{\sum_{j \in I} \exp \left(\left(\mathbf{z}_{i}^{(k)} \cdot \mathbf{z}_{j}^{(0)} / \tau\right)\right)}
$$

$$
\mathcal{L}_{S}=\mathcal{L}_{S}^{U}+\alpha \mathcal{L}_{S}^{I}
$$

构建基于节点语义关系的比照学习工作:将每个用户(物品)与它具备类似语义关系的节点进行比照。这里具备语义关系指的是,图上不可达到,但具备类似物品特色、用户偏好等的节点。

怎么辨认具备雷同语义的节点呢?咱们认为类似的节点偏向于落在邻近的 embedding 空间中,而咱们的指标就是寻找代表一组语义街坊的核心(原型)。因而,咱们 对节点 embedding 利用聚类算法去获取用户或物品的原型

因为这个过程不能够端到端优化,咱们用 EM 算法学习提出的语义原型比照工作。模式上,GNN 模型的指标是最大化对数似然函数:

$$
\sum_{u \in \mathcal{U}} \log p\left(\mathbf{e}_{u} \mid \Theta, \mathbf{R}\right)=\sum_{u \in \mathcal{U}} \log \sum_{\mathbf{c}_{i} \in C} p\left(\mathbf{e}_{u}, \mathbf{c}_{i} \mid \Theta, \mathbf{R}\right)
$$

其中,$c_i$ 是用户 $u$ 的潜在原型。采纳基于 InfoNCE 来最小化以下函数:

$$
\mathcal{L}_{P}^{U}=\sum_{u \in \mathcal{U}}-\log \frac{\exp \left(\mathbf{e}_{u} \cdot \mathbf{c}_{i} / \tau\right)}{\sum_{\mathbf{c}_{j} \in C} \exp \left(\mathbf{e}_{u} \cdot \mathbf{c}_{j} / \tau\right)}
$$

$$
\mathcal{L}_{P}^{I}=\sum_{i \in \mathcal{I}}-\log \frac{\exp \left(\mathbf{e}_{i} \cdot \mathbf{c}_{j} / \tau\right)}{\sum_{\mathbf{c}_{t} \in C} \exp \left(\mathbf{e}_{i} \cdot \mathbf{c}_{t} / \tau\right)}
$$

$$
\mathcal{L}_{P}=\mathcal{L}_{P}^{U}+\alpha \mathcal{L}_{P}^{I}
$$

优化

总体损失函数为:

$$
\mathcal{L}=\mathcal{L}_{B P R}+\lambda_{1} \mathcal{L}_{S}+\lambda_{2} \mathcal{L}_{P}+\lambda_{3}\|\Theta\|_{2}
$$

其中,因为 $\mathcal{L}_{P}$ 不能够端到端优化,采纳EM 算法。利用 Jensen 不等式失去上述最大化对数似然函数的下界(LB):

$$
L B=\sum_{u \in \mathcal{U}} \sum_{\mathbf{c}_{i} \in C} Q\left(\mathbf{c}_{i} \mid \mathbf{e}_{u}\right) \log \frac{p\left(\mathbf{e}_{u}, \mathbf{c}_{i} \mid \Theta, \mathbf{R}\right)}{Q\left(\mathbf{c}_{i} \mid \mathbf{e}_{u}\right)}
$$

$Q\left(\mathbf{c}_{i} \mid \mathbf{e}_{u}\right)$ 示意察看到 $e_u$ 时,潜在变量 $c_i$ 的散布。

E 步:采纳 $k$-means 进行聚类失去不同节点 embedding 对应的聚类核心。若 $e_u$ 属于聚类 $c_i$,则 $\hat{Q}\left(\mathbf{c}_{i} \mid \mathbf{e}_{u}\right) = 1$,反之为 0。

M 步:失去聚类核心,指标函数重写为:

$$
\mathcal{L}_{P}^{U}=-\sum_{u \in \mathcal{U}} \sum_{\mathbf{c}_{i} \in C} \hat{Q}\left(\mathbf{c}_{i} \mid \mathbf{e}_{u}\right) \log p\left(\mathbf{e}_{u}, \mathbf{c}_{i} \mid \Theta, \mathbf{R}\right)
$$

假如用户在所有聚类上的散布是各向同性高斯分布。因而,函数能够写成:

$$
\mathcal{L}_{P}^{U}=-\sum_{u \in \mathcal{U}} \log \frac{\exp \left(-\left(\mathbf{e}_{u}-\mathbf{c}_{i}\right)^{2} / 2 \sigma_{i}^{2}\right)}{\sum_{\mathbf{c}_{j} \in C} \exp \left(-\left(\mathbf{e}_{u}-\mathbf{c}_{j}\right)^{2} / 2 \sigma_{j}^{2}\right)}
$$

残缺算法:

3 试验后果

论文的试验后果能够说是很震撼一张大表······但后果属实不错,在五个数据集上的后果证实 NCL 的有效性,尤其是在 Yelp 和 Amazon book 数据集上,与其余模型相比,性能别离进步了 26% 和 17%。

二、ICL

论文题目:Intent Contrastive Learning for Sequential Recommendation

论文起源:WWW’22

论文链接:https://doi.org/10.1145/34854…

代码链接:https://github.com/salesforce…

1 ICL 核心思想

很乏味的一点,这篇文章所提模型简称 ICL 和上篇 NCL 很像啊······

以下图作引,咱们直观了解这篇文章的思维。Figure 1 中展示了两个用户的购物序列,只管没有呈现一样雷同的商品,然而他们最初却购买了同样的物品。起因很简略,因为他俩同为钓鱼爱好者,购买用意冥冥中含有不可言说的关系。

正是因而,咱们必须器重不同用户购买序列之间的潜在用意关系。文章提出的一个良好的解决方案是,咱们从未标记的用户行为序列中学习用户的用意散布函数,并应用比照学习优化 SR 模型。具体来说,咱们引入一个潜在变量来示意用户的用意,并通过聚类学习潜在变量的散布函数。

2 算法细节

这篇文章的重要价值之一:模型图画的很漂亮,深得我心。从图中能够看出,模型采纳 EM 算法进行优化,在 E 步中进行聚类,在 M 步进行损失函数的计算和参数更新。

重在领会思维,具体步骤解释请参照原文。

假如有 $K$ 个用户潜在用意 $\left\{c_{i}\right\}_{i=1}^{K}$,则指标公式能够改写为:

$$
\theta^{*}=\underset{\theta}{\arg \max} \sum_{u=1}^{N} \sum_{t=1}^{T} \ln \mathbb{E}_{(c)}\left[P_{\theta}\left(s_{t}^{u}, c_{i}\right)\right]
$$

因为上述公式优化简单,依据 EM 思维,结构下界函数,并使下界最大化:

$$
\begin{aligned}
\sum_{u=1}^{N} \sum_{t=1}^{T} \ln \mathbb{E}_{(c)}\left[P_{\theta}\left(s_{t}^{u}, c_{i}\right)\right] &=\sum_{u=1}^{N} \sum_{t=1}^{T} \ln \sum_{i=1}^{K} P_{\theta}\left(s_{t}^{u}, c_{i}\right) \\
&=\sum_{u=1}^{N} \sum_{t=1}^{T} \ln \sum_{i=1}^{K} Q\left(c_{i}\right) \frac{P_{\theta}\left(s_{t}^{u}, c_{i}\right)}{Q\left(c_{i}\right)}
\end{aligned}
$$

依据 Jensen 不等式,失去

$$
\begin{array}{l}
\geq \sum_{u=1}^{N} \sum_{t=1}^{T} \sum_{i=1}^{K} Q\left(c_{i}\right) \ln \frac{P_{\theta}\left(s_{t}^{u}, c_{i}\right)}{Q\left(c_{i}\right)} \\
\propto \sum_{u=1}^{N} \sum_{t=1}^{T} \sum_{i=1}^{K} Q\left(c_{i}\right) \cdot \ln P_{\theta}\left(s_{t}^{u}, c_{i}\right)
\end{array}
$$

简略起见,在优化下界时,咱们只关注最初一个地位步骤,下界定义为:

$$
\sum_{u=1}^{N} \sum_{i=1}^{K} Q\left(c_{i}\right) \cdot \ln P_{\theta}\left(S^{u}, c_{i}\right)
$$

其中 $Q\left(c_{i}\right)=P_{\theta}\left(c_{i} \mid S^{u}\right)$。

为了 学习用意散布 $Q(c)$,利用编码器将序列失去示意 $\left\{h^{u}\right\}_{u=1}^{|U|}$,并在学习到的示意上进行 $k$-means 聚类,从而失去 $P_{\theta}\left(c_{i} \mid S^{u}\right)$。

$$
Q\left(c_{i}\right)=P_{\theta}\left(c_{i} \mid S^{u}\right)=\left\{\begin{array}{lc}
1 & \text {if} S^{u} \text {in cluster} i \\
0 & \text {else}
\end{array}\right.
$$

失去用意散布 $Q(c)$,下一步须要 求得 $P_{\theta}\left(S^{u}, c_{i}\right)$。假如用意满足均匀分布,且给定用意 $c$ 时,$S^u$ 的条件散布和 $L_2$ 标准化的高斯分布同向,则可把 $P_{\theta}\left(S^{u}, c_{i}\right)$ 改写为:

$$
\begin{aligned}
P_{\theta}\left(S^{u}, c_{i}\right) &=P_{\theta}\left(c_{i}\right) P_{\theta}\left(S^{u} \mid c_{i}\right)=\frac{1}{K} \cdot P_{\theta}\left(S^{u} \mid c_{i}\right) \\
& \propto \frac{1}{K} \cdot \frac{\exp \left(-\left(\mathbf{h}^{u}-\mathbf{c}_{i}\right)^{2}\right)}{\sum_{j=1}^{K} \exp \left(-\left(\mathbf{h}_{i}^{u}-\mathbf{c}_{j}\right)^{2}\right)} \\
& \propto \frac{1}{K} \cdot \frac{\exp \left(\mathbf{h}^{u} \cdot \mathbf{c}_{i}\right)}{\sum_{j=1}^{K} \exp \left(\mathbf{h}^{u} \cdot \mathbf{c}_{j}\right)},
\end{aligned}
$$

求得下界最大化即相当于最小化以下损失函数:

$$
-\sum_{v=1}^{N} \log \frac{\exp \left(\operatorname{sim}\left(\mathbf{h}^{u}, \mathbf{c}_{i}\right)\right)}{\sum_{j=1}^{K} \exp \left(\operatorname{sim}\left(\mathbf{h}^{u}, \mathbf{c}_{j}\right)\right)}
$$

能够发现,上式最大化了一个独自序列与其相应用意之间的互信息。咱们为每个序列通过加强构建用于比照学习的正样本,而后优化以下损失函数:

$$
\mathcal{L}_{\mathrm{ICL}}=\mathcal{L}_{\mathrm{ICL}}\left(\tilde{\mathbf{h}}_{1}^{u}, \mathbf{c}_{u}\right)+\mathcal{L}_{\mathrm{ICL}}\left(\tilde{\mathbf{h}}_{2}^{u}, \mathbf{c}_{u}\right)
$$

$$
\mathcal{L}_{\mathrm{ICL}}\left(\tilde{\mathbf{h}}_{1}^{u}, \mathbf{c}_{u}\right)=-\log \frac{\exp \left(\operatorname{sim}\left(\tilde{\mathbf{h}}_{1}^{u}, \mathbf{c}_{u}\right)\right)}{\sum_{n e g} \exp \left(\operatorname{sim}\left(\tilde{\mathbf{h}}_{1}^{u}, \mathbf{c}_{n e g}\right)\right)},
$$

其中,$c_{neg}$ 为一个 batch 中的所有用意,而同一个 batch 中的用户可能有雷同的用意,故为了加重假阴性的影响,将上式改为:

$$
\mathcal{L}_{\mathrm{ICL}}\left(\tilde{\mathbf{h}}_{1}^{u}, \mathbf{c}_{u}\right)=-\log \frac{\exp \left(\operatorname{sim}\left(\tilde{\mathbf{h}}_{1}^{u}, \mathbf{c}_{u}\right)\right)}{\sum_{v=1}^{N} \mathbb{1}_{v \notin \mathcal{F}} \exp \left(\operatorname{sim}\left(\tilde{\mathbf{h}}_{1}, \mathbf{c}_{v}\right)\right)},
$$

最终,模型损失函数为:

$$
\mathcal{L}=\mathcal{L}_{\text {NextItem}}+\lambda \cdot \mathcal{L}_{\mathrm{ICL}}+\beta \cdot \mathcal{L}_{\mathrm{SeqCL}}
$$

残缺算法:

3 试验后果

能够看出,ICLRec 在所有数据集上始终优于现有办法。与最佳 baseline 相比,HR 和 NDCG 的均匀改善率在 7.47% 到 33.33% 之间。

三、RGCL

论文题目:A Review-aware Graph Contrastive Learning Framework for Recommendation

论文起源:SIGIR’22

论文链接:https://doi.org/10.1145/34774…

1 RGCL 核心思想

这篇论文的翻新点是 引入了用户评分和评论作为辅助信息,为了将二者更好地融入图构造中,RGCL 以交互评论作为图的边信息,并以此为根底设计了两个别离基于节点加强和边加强的比照学习工作。

2 算法细节

模型图能够说画的是通俗易懂,咱们对照图来顺次看一下每个模块~

具有特征边的图构建:从 Figure 2 中的图构建局部咱们能够看到,用户物品交互评分矩阵 $R$ 与评论 $E$ 组成用户物品交互 $\varepsilon=\{R, E\}$,而基于评论的举荐数据表示为具有特征边的二部图 $\mathcal{G}=\langle\mathcal{U} \cup \mathcal{V}, \mathcal{E}\rangle$。

评论感知图学习:利用评分辨别边的类型,评论的示意 $e_{ij}$ 须要由 BERT-Whitening 生成。这里介绍如何利用基于特色边的图学习节点示意。

  1. 评论感知信息传递公式为:

$$
\boldsymbol{x}_{r ; j \rightarrow i}^{(l)}=\frac{\sigma\left(\boldsymbol{w}_{r, 1}^{(l) \top} \boldsymbol{e}_{i j}\right) \boldsymbol{W}_{r, 1}^{(l)} \boldsymbol{e}_{i j}+\sigma\left(\boldsymbol{w}_{r, 2}^{(l) \top} \boldsymbol{e}_{i j}\right) \boldsymbol{W}_{r, 2}^{(l)} \boldsymbol{v}_{j}^{(l-1)}}{\sqrt{\left|\mathcal{N}_{j}\right|\left|\mathcal{N}_{i}\right|}}\\
x_{r ; i \rightarrow j}^{(l)}=\frac{\sigma\left(\boldsymbol{w}_{r, 1}^{(l) \top} \boldsymbol{e}_{i j}\right) \boldsymbol{W}_{r}^{(l)} \boldsymbol{e}_{i j}+\sigma\left(\boldsymbol{w}_{r, 2}^{(l) \top} \boldsymbol{e}_{i j}\right) \boldsymbol{W}_{r, 2}^{(l)} \boldsymbol{u}_{i}^{(l-1)}}{\sqrt{\left|\mathcal{N}_{i}\right|\left|\mathcal{N}_{j}\right|}}
$$

  1. 音讯聚合:

$$
\boldsymbol{u}_{i}^{(l)}=\boldsymbol{W}^{(l)} \sum_{r \in \mathcal{R}} \sum_{k \in \mathcal{N}_{i, r}} x_{r ; k \rightarrow i}^{(l)}, \quad v_{j}^{(l)}=W^{(l)} \sum_{r \in \mathcal{R}} \sum_{k \in \mathcal{N}_{j, r}} x_{r ; k \rightarrow j}^{(l)}
$$

  1. 失去用户和物品最终示意:

$$
\hat{\boldsymbol{u}}_{i}=\boldsymbol{u}_{i}^{(L)}, \quad \hat{\boldsymbol{v}}_{j}=\boldsymbol{v}_{j}^{(L)}
$$

交互建模 :区别于个别举荐采纳的内积预测形式,论文采纳 MLP 学习用户物品的交互特色,并 依据失去的交互特色预测评分(此处的预测评分在比照学习局部会用到):

$$
\boldsymbol{h}_{i j}=\operatorname{MLP}\left(\left[\hat{\boldsymbol{u}}_{i}, \hat{v}_{j}\right]\right)
$$

$$
\hat{r}_{i j}=\boldsymbol{w}^{\top} \boldsymbol{h}_{i j}
$$

两种比照学习工作:加强节点 embedding 学习和加强交互建模。

基于节点的数据加强采纳的是 node drop,指定概率随机抛弃物品节点和相应的评论特色:

$$
\mathcal{L}_{3}^{\text {user}}=-\mathbb{E}_{\mathcal{U}}\left[\log \left(F\left(\hat{u}_{i}^{1}, \hat{u}_{i}^{2}\right)\right)\right]+\mathbb{E}_{\mathcal{U} \times \mathcal{U}^{\prime}}\left[\log \left(F\left(\hat{u}_{i}^{1}, \hat{u}_{i^{\prime}}^{2}\right)\right)\right]
$$

损失为:$\mathcal{L}_{3}=\mathcal{L}_{3}^{\text {user}}+\mathcal{L}_{3}^{\text {item}}$。

加强交互建模,利用交互建模失去的交互特色 $h_{ij}$ 作为 anchor example。抉择绝对应的交互评论 $e_{ij}$ 作为正样本,而从整个训练集中随机失去的一个评论 $e_{i’j’}$ 作为负样本,ED 的指标是将 $h_{ij}$ 与 $e_{ij}$ 凑近,而与 $e_{i’j’}$ 远离。优化指标公式为:

$$
\mathcal{L}_{2}=-\mathbb{E}_{\mathcal{E}}\left[\log \left(F\left(\boldsymbol{h}_{i j}, \boldsymbol{e}_{i j}\right)\right)\right]+\mathbb{E}_{\mathcal{E} \times \mathcal{E}^{\prime}}\left[\log \left(F\left(\boldsymbol{h}_{i j}, \boldsymbol{e}_{i^{\prime} j^{\prime}}\right)\right)\right]
$$

优化:因为 RGCL 侧重于预测用户对物品的评分,因而采纳均方误差(MSE)作为优化指标:

$$
\mathcal{L}_{1}=\frac{1}{|\mathcal{S}|} \sum_{(i, j) \in \mathcal{S}}\left(\hat{r}_{i j}-r_{i j}\right)^{2}
$$

$$
\mathcal{L}=\mathcal{L}_{1}+\alpha \mathcal{L}_{2}+\beta \mathcal{L}_{3} .
$$

3 试验后果

四、MCCLK

论文题目:Multi-level Cross-view Contrastive Learning for Knowledge-aware Recommender System

论文起源:SIGIR’22

论文链接:https://arxiv.org/abs/2204.08807

代码链接:https://github.com/CCIIPLab/M…

1 MCCLK 核心思想

传统的比照学习办法多通过对立的数据加强形式生成两个不同的视图,本文别具匠心,从常识图不同视图的角度去利用比照学习,提出了一种 多层次跨视图比照学习机制

联合了 KGR 的特点,论文思考了三种不同的图视图,包含 全局构造视图、部分协同视图和语义视图,视图的了解参见下图~

值得一说的是,针对在语义视图,文章提出物品 - 物品语义图构建模块去获取以往工作中常常疏忽的重要物品 - 物品语义关系。

2 算法细节

从模型图中能够看出,MCCLK 包含三个次要局部视图生成、部分比照学习和全局比照学习。

多视图生成 :后面咱们说道一共须要构建三个视图,这里具体解释一下三个视图到底是什么。其中全局构造视图为原始的 用户 - 物品 - 实体图 ,协同视图与语义视图别离为用户 - 物品 - 实体图生成的 用户 - 物品图 物品 - 实体图。因为全局构造视图与协同视图很常见,所以重点在构建语义视图。

为了思考物品 - 物品语义关系,构建带有关系感知聚合机制的 $k$ 阶街坊物品 - 物品语义图 $S$,可同时保留相邻实体和关系信息。其中 $S_{ij}$ 示意物品 $i$ 与 $j$ 之间的语义类似度,$S_{ij}=0$ 示意两个物品之间没有分割。

从常识图 $\mathcal{G}$ 递归学习 $K’$ 次物品示意,提出的关系感知聚合机制为:

$$
\mathbf{e}_{i}^{(k+1)}=\frac{1}{\left|\mathcal{N}_{i}\right|} \sum_{(r, v) \in \mathcal{N}_{i}} \mathbf{e}_{r} \odot \mathbf{e}_{v}^{(k)}\\
\mathbf{e}_{v}^{(k+1)}=\frac{1}{\left|\mathcal{N}_{v}\right|}\left(\sum_{(r, v) \in \mathcal{N}_{v}} \mathbf{e}_{r} \odot \mathbf{e}_{v}^{(k)}+\sum_{(r, i) \in \mathcal{N}_{v}} \mathbf{e}_{r} \odot \mathbf{e}_{i}^{(k)}\right)
$$

通过这种形式将 KG 中的相邻实体和关系编码到物品示意中,并通过余弦类似度构建物品 - 物品的类似度:

$$
S_{i j}=\frac{\left(\mathbf{e}_{i}^{\left(K^{\prime}\right)}\right)^{\top} \mathbf{e}_{j}^{\left(K^{\prime}\right)}}{\left\|\mathbf{e}_{i}^{\left(K^{\prime}\right)}\right\|\left\|\mathbf{e}_{j}^{\left(K^{\prime}\right) \|}\right\|}
$$

在全连贯物品 - 物品图上进行 KNN 稠密化,以缩小计算需要、可行噪声和不重要边:

$$
\widehat{S}_{i j}=\left\{\begin{array}{ll}
S_{i j}, & S_{i j} \in \text {top-k}\left(S_{i}\right) \\
0, & \text {otherwise}
\end{array}\right.
$$

部分级比照学习:从模型图能够看出,利用协同视图和语义视图中物品的视图 embedding,能够实现部分级的穿插视图比照学习。在这之前,咱们先来看两个视图中的编码局部。

  1. 协同视图(即,物品 - 用户 - 物品)编码,采纳 Light-GCN 递归地执行聚合操作:

$$
\begin{aligned}
\mathbf{e}_{u}^{(k+1)} &=\sum_{i \in \mathcal{N}_{u}} \frac{1}{\sqrt{\left|\mathcal{N}_{u}\right||\mathcal{N} i|}} \mathbf{e}_{i}^{(k)} \\
\mathbf{e}_{i}^{(k+1)} &=\sum_{u \in \mathcal{N}_{i}} \frac{1}{\sqrt{\left|\mathcal{N}_{u}\right||\mathcal{N} i|}} \mathbf{e}_{u}^{(k)}
\end{aligned}
$$

将不同层地示意相加,失去部分协同示意:

$$
\mathrm{z}_{u}^{c}=\mathbf{e}_{u}^{(0)}+\cdots+\mathbf{e}_{u}^{(K)}, \quad \mathbf{z}_{i}^{c}=\mathbf{e}_{i}^{(0)}+\cdots+\mathbf{e}_{i}^{(K)}
$$

  1. 语义视图,关注物品之间的语义类似度,同样地采纳 Light-GCN 执行聚合操作:

$$
\mathbf{e}_{i}^{(l+1)}=\sum_{j \in \mathcal{N}(i)} \widetilde{S}_{j}^{(l)}
$$

将不同层相加,失去部分语义示意:

$$
\mathbf{z}_{i}^{S}=\mathbf{e}_{i}^{(0)}+\cdots+\mathbf{e}_{i}^{(L)}
$$

  1. 部分级穿插视图比照优化

首先将上述两个视图的 embedding 送到一个具备暗藏层 MLP 中:

$$
\begin{array}{l}
\mathbf{z}_{i-1}^{c} \mathrm{p}=W^{(2)} \sigma\left(W^{(1)} \mathrm{z}_{i}^{c}+b^{(1)}\right)+b^{(2)} \\
\mathbf{z}_{i-1}^{s} \mathrm{p}=W^{(2)} \sigma\left(W^{(1)} \mathbf{z}_{i}^{s}+b^{(1)}\right)+b^{(2)}
\end{array}
$$

比照损失为:

留神,负样本有两个起源,别离为视图内节点和视图间节点,对应于公式分母中的第二项和第三项。

全局级比照学习:这里设计了一个门路感知 GNN(该 GNN 能够在进行 $L’$ 次聚合的同时保留门路信息,即 user-interact-item-relation-entity 等近程连贯),将门路信息自动编码到节点 embedding 中,而后利用全局级视图和部分级视图的编码 embedding,进行全局级比照学习。

构造视图的聚合公式为:

$$
\begin{aligned}
\mathbf{e}_{u}^{(l+1)} &=\frac{1}{\left|\mathcal{N}_{u}\right|} \sum_{i \in \mathcal{N}_{u}} \mathbf{e}_{i}^{(l)}, \\
\mathbf{e}_{i}^{(l+1)} &=\frac{1}{\left|\mathcal{N}_{i}\right|} \sum_{(r, v) \in \mathcal{N}_{i}} \beta(i, r, v) \mathbf{e}_{r} \odot \mathbf{e}_{v}^{(l)},
\end{aligned}
$$

其中,注意力权重 $\beta(i, r, v)$ 的计算公式为:

$$
\begin{aligned}
\beta(i, r, v) &=\operatorname{softmax}\left(\left(\mathbf{e}_{i} \| \mathbf{e}_{r}\right)^{T} \cdot\left(\mathbf{e}_{v} \| \mathbf{e}_{r}\right)\right) \\
&=\frac{\exp \left(\left(\mathbf{e}_{i} \| \mathbf{e}_{r}\right)^{T} \cdot\left(\mathbf{e}_{v} \| \mathbf{e}_{r}\right)\right)}{\sum_{\left(v^{\prime}, r\right) \in \hat{\mathrm{N}}(i)} \exp \left(\left(\mathbf{e}_{i} \| \mathbf{e}_{r}\right)^{T} \cdot\left(\mathbf{e}_{v^{\prime}} \| \mathbf{e}_{r}\right)\right)},
\end{aligned}
$$

将所有层的示意相加,失去全局示意:

$$
\mathbf{z}_{u}^{g}=\mathbf{e}_{u}^{(0)}+\cdots+\mathbf{e}_{u}^{\left(L^{\prime}\right)}, \quad \mathbf{z}_{i}^{g}=\mathbf{e}_{i}^{(0)}+\cdots+\mathbf{e}_{i}^{\left(L^{\prime}\right)}
$$

全局级穿插视图比照优化,获取全局级和部分级视图下的节点示意,首先对其映射计算:

$$
\begin{array}{c}\mathrm{z}_{i-}^{g} \mathrm{p}=W^{(2)} \sigma\left(W^{(1)} \mathrm{z}_{i}^{g}+b^{(1)}\right)+b^{(2)} \\\mathrm{z}_{i-}^{l} \mathrm{p}=W^{(2)} \sigma\left(W^{(1)}\left(\mathrm{z}_{i}^{c}+\mathrm{z}_{i}^{s}\right)+b^{(1)}\right)+b^{(2)}\end{array}
$$

采纳与部分级比照雷同的正负采样策略,有以下比照损失:

总体目标如下:

$$
\mathcal{L}^{\text {global}}=\frac{1}{2 N} \sum_{i=1}^{N}\left(\mathcal{L}_{i}^{g}+\mathcal{L}_{i}^{l}\right)+\frac{1}{2 M} \sum_{i=1}^{M}\left(\mathcal{L}_{u}^{g}+\mathcal{L}_{u}^{l}\right)
$$

多任务训练

$$
\mathcal{L}_{M C C L K}=\mathcal{L}_{\mathrm{BPR}}+\beta\left(\alpha \mathcal{L}^{\text {local}}+(1-\alpha) \mathcal{L}^{\text {global}}\right)+\lambda\|\Theta\|_{2}^{2},
$$

3 试验后果

试验可见,MCCLK 在所有度量方面均优于三个数据集的 baselines。针对 AUC 在书籍、电影和音乐数据集,别离进步了 3.11%、1.61% 和 2.77%。

五、MIDGN

论文题目:Multi-view Intent Disentangle Graph Networks for Bundle Recommendation

论文起源:AAAI’22

论文链接:https://arxiv.org/pdf/2202.11…

代码链接:CCIIPLab/MIDGN (github.com)

1 MIDGN 核心思想

该模型将 DGCF 的解耦思路用在了 bundle 举荐,从全局(解耦 bundle 间的用户用意)和部分(解耦 bundle 中的用户用意)两个视图对用户用意进行解耦,并采纳 InfoNCE 增强学习效果。下图能够形象地解释上述两个视图~

2 算法细节

从图中能够看到,MIDGN 由四个不同的模块组成:图解耦模块、视图穿插流传模块、用意比照模块和预测模块。

图解耦模块

初始化。模型设置 $K$ 个用意,别离对应一组用意感知图 $\mathcal{G} = \left\{\mathcal{G}_{1}, \mathcal{G}_{2}, \cdots, \mathcal{G}_{K}\right\}$。因为用户和 bundle 在不同的用意上应该有不同的 embedding,故将其 embedding 分为 $K$ 块,$\left(\mathbf{u}_{1}, \mathbf{u}_{2}, \cdots, \mathbf{u}_{K}\right), \quad \mathbf{b}=\left(\mathbf{b}_{1}, \mathbf{b}_{2}, \cdots, \mathbf{b}_{K}\right)$ 块与用意相耦合。因为每一件物品为用户出于某一种用意购买的,不须要对物品进行 embedding 划分,物品 embedding 通过随机初始化失去。

为每个用意感知图构建一个加权邻接矩阵 $A_k$,其中 $A_k(c,i)$ 示意 bundle 与物品交互基于第 $k$ 个用意的置信度。

$$
\mathbf{A}(c, i)=\left(\mathbf{A}_{1}(c, i), \mathbf{A}_{2}(c, i), \cdots, \mathbf{A}_{K}(c, i)\right)
$$

初始化 $\mathbf{A}(c, i)=(1,1, \cdots, 1)$。

用意感知交互图解耦。基于每个用意感知图计算用户和 bundle 的 embedding:

$$
\mathbf{e}_{c k}^{(1)}=g\left(\mathbf{c}_{k},\left\{\mathbf{i}, \mathbf{i} \in \mathcal{N}_{c}\right\}\right)
$$

图解耦模块采纳街坊路由机制,对图 $\mathcal{G}_k$ 迭代更新用户 /bundle 的 embedding 块 $c_k^t$ 和邻接矩阵 $A_k^t$。每次迭代应用 $c_k^t$ 和 $A_k^t$ 来记录 $c_k$ 和 $A_k$ 的更新。对于每个交互 $(c,i)$,记录其在 $K$ 个用意上的置信度。为了失去散布,对置信度利用 softmax:

$$
\tilde{\mathbf{A}}_{k}^{t}(c, i)=\frac{\exp \mathbf{A}_{k}^{t}(c, i)}{\sum_{k^{\prime}=1}^{K} \exp \mathbf{A}_{k^{\prime}}^{t}(c, i)}
$$

而后在每个用意感知图进行 embedding 流传:

$$
\mathbf{c}_{k}^{t}=\sum_{i \in \mathcal{N}_{c}} \frac{\tilde{\mathbf{A}}_{k}^{t}(c, i)}{\sqrt{D_{t}^{k}(c) \cdot D_{t}^{k}(i)}} \cdot \mathbf{i}
$$

每个用意下交互的置信度更新公式为:

$$
\mathbf{A}_{k}^{t+1}(c, i)=\mathbf{A}_{k}^{t}(c, i)+\mathbf{c}_{k}^{t^{\mathrm{T}}} \cdot \mathbf{i}
$$

embedding 的多层组合。模型聚合高阶信息:

$$
\mathbf{e}_{c k}^{l}=g\left(\mathbf{e}_{c k}^{l-1},\left\{\mathbf{i}, \mathbf{i} \in \mathcal{N}_{c}\right\}\right)
$$

将来自不同层的用意感知示意求和,失去最终示意:

$$
\mathbf{e}_{c k}=\sum_{l} \mathbf{e}_{c k}^{l}
$$

图解耦模块从用户 - 物品交互图中学习散布在不同 bundle(全局视图)中的用户用意;从 bundle- 物品图中,学习用户在每个 bundle(部分视图)中的多个用意。联合来自全局和部分视图的用意,失去用户和 bundle 的示意:

$$
\begin{array}{l}
\mathbf{e}_{u}=\left(\mathbf{e}_{u 1}, \mathbf{e}_{u 2}, \cdots, \mathbf{e}_{u K}\right) \\
\mathbf{e}_{b}=\left(\mathbf{e}_{b 1}, \mathbf{e}_{b 2}, \cdots, \mathbf{e}_{b K}\right)
\end{array}
$$

视图穿插流传模块:为了在不同的视图下在用户和 bundle 块之间交换用意,模型在用户 -bundle 交互图采纳了 LightGCN:

$$
\begin{aligned}
\mathbf{v}_{u} &=\sum_{b \in \mathcal{N}_{u}} \frac{1}{\sqrt{\left|\mathcal{N}_{u}\right|} \sqrt{\left|\mathcal{N}_{b}\right|}} \mathbf{e}_{b}, \\
\mathbf{v}_{b} &=\sum_{u \in \mathcal{N}_{b}} \frac{1}{\sqrt{\left|\mathcal{N}_{b}\right|} \sqrt{\left|\mathcal{N}_{u}\right|}} \mathbf{e}_{u} .
\end{aligned}
$$

用意比照模块:从不同的角度比照用户和 bundle 的 embedding 从而捕捉用意:

$$
L_{\text {contrast}}=-\log \left(\frac{\exp \left(\mathbf{e}_{c k} \cdot \mathbf{v}_{c k_{+}}\right)}{\sum_{k^{\prime}} \exp \left(\mathbf{e}_{c k} \cdot \mathbf{v}_{c k^{\prime}}\right)}\right)
$$

其中,正样本是不同视图中具备雷同用意的块,负样本是其余所有块。

预测和优化

$$
\begin{array}{l}
\hat{\mathbf{y}}_{u b}=\left(\mathbf{e}_{u} \oplus \mathbf{v}_{u}\right) \odot\left(\mathbf{e}_{b} \oplus \mathbf{v}_{b}\right)\\
L_{\text {pred}}=\sum_{(u, b, d) \in Q}-\ln \sigma\left(\hat{\mathbf{y}}_{u b}-\hat{\mathbf{y}}_{u d}\right)+\lambda \cdot\|\theta\|^{2}
\end{array}
$$

3 试验后果

试验在两个数据集上进行,成果很好,MIDGN 在 NetEase 数据集上将性能进步了 26.8%-38.2%,在 Youshu 上进步了 10.7%-14.2%。

总结

五篇文章别离波及到了协同过滤、序列举荐、基于常识图谱的举荐与 bundle 举荐,具体利用的技术波及了 EM 算法、解耦等。其中第一篇文章 NCL 和第二篇文章 ICL 思路较为相近,均采纳聚类的思维为节点 / 序列寻找语义(用意)类似的“街坊”;第三篇文章引入辅助信息(评分和评论)作为边特色改良 GNN 的图建模,其比照学习的利用也与辅助信息相结合;第四篇文章在 KGR 中针对不同视图进行了比照工作;第五篇文章则利用解耦的思维为 GNN 生成多个子图,并利用解耦的子图作为比照工作的视图,思路尽管简略,但成果不错。愿大家读有所思,多发 paper。

正文完
 0