CIKM'2017 最佳论文鉴赏

简介: 今年的Best Paper Award由清华大学的李国良老师团队获得,论文题为:Hike: A Hybrid Human-Machine Method for Entity Alignment in Large-Scale Knowledge Bases《一种基于人机协作的大型知识图谱对齐方法》. 因为是Best Paper,本篇分享单独对该文章做细致解读。

写在前面

背景

感谢组织,让我有幸参加了11月初在新加坡举办的ACM CIKM 2017。CIKM全称是Conference on Information and Knowledge Management,是国际计算机学会(ACM)主办的数据库、知识管理、信息检索领域的重要学术会议。

今年的Best Paper Award由清华大学的李国良老师团队获得,论文题为:Hike: A Hybrid Human-Machine Method for Entity Alignment in Large-Scale Knowledge Bases《一种基于人机协作的大型知识图谱对齐方法》. 因为是Best Paper,本篇分享单独对该文章做细致解读。为了能让读者有所得,涉及的细节较多,篇幅较长。如果你只是想一瞥论文思路,并不打算深究细节,那么后续Section中只挑“快读”部分阅读即可。

知识库是对客观世界的事物及其相互关系的一种形式化描述(包括实体、类和关系等,下图是2个知识库的示例,圆圈表示实体,实线矩形表示类,实体之间的箭头表示关系),其目的是让机器像人一样能够记忆、理解、推理,在知识管理、信息检索等领域具有广泛应用。目前很多国内外企业和高校已经建立数百个大型知识库(例如谷歌的Freebase等)。为了提高知识库的覆盖率和准确率,一个重要的任务是集成这些异构知识库。然而,由于这些知识库体量大、不一致性和不确定性高,目前自动化的知识库对齐方法质量不高,召回率低。 文章提出一种新型的人机协作的方法(A Hybrid Human-Machine Method),解决大规模知识库(Knowledge Base)之间实体对齐(Entity Alignment)的问题,并拿到了优于已有的自动对齐方法的结果。实体对齐是知识库对齐的一个子任务,是要判断两个知识库 $K$ 和 $K'$ 中,哪些实体描述的是同样的东东,并把它们link起来,例如下图中的hhenry_walthall和henry_b_walthall属于同一实体。
image.png

大规模知识库之间的实体对齐问题,有很多挑战:

  • 知识库中拥有海量的实体,如果纯靠人工去标记实体并做对齐工作,不论从人工成本还是可行性方面看,都是很不现实的
  • 有自动的实体对齐算法,但是召回率只达到70%,质量不高

读后感受

通过仔细地品读整篇文章,个人觉得这个工作之所以能拿下Best Award,原因有如下几个方面:

  • 工作内容本身:围绕着“能应用于大规模数据集”这一目标,打出了一系列组合拳,包括实体划分(显著降低计算量,并让问题可并行计算)、偏序构建(使得未知问题的解可通过已知问题的答案推理得到)、问题选择+众包机制+推断算法(进一步降低计算量和花销)和错误容忍机制(提升质量),终使得实体对齐得以在大规模数据集落地。
  • 工作非常饱满:几乎每一个细节之处都处理得很精致,不马虎;环环相扣,不断提出问题和解决问题,读后有一种淋漓尽致的感觉。

当然,文章中也存在一些值得商榷的地方和影响阅读的小瑕疵,整体感觉是后半部分质量不及前半部分。但本篇分享不做细节勘误。如果你在细读原论文时有任何细节困惑,欢迎与我交流!

论文解读

下面正式进入对论文细节的解读。为避免概念混淆,请留意:
(1)下文提到的实体对,永远都是指分别来自2个知识库的实体构成的实体对,同一个知识库中不谈实体对。此外,所述实体对只单纯是成对的实体,并不意味着一定是“对齐的”实体。
(2)后文中根据语境,会交叉使用“实体对”和“问题”两种表述,记得它们是一样的东东,因为每个实体对$(e_i, e_j)$都对应着如下问题:这俩实体是否匹配?

Introduction

符号一览

符号 描述
$K$ 知识库 $K$(Knowledge Base)
$(s, p, o)$ $K$中的三元组表示

论文背景

随着World Wide Web的发展,有越来越多异构的大规模知识库(Knowledge Base)产生,比如DBPedia(一个从维基百科的词条里撷取出的结构化的知识库)、YAGO(从WordNet和维基百科等构成的知识库)等等。知识库广泛应用于自动问答(Question Answer)、语义搜索(Semantic Search)等领域。知识库有几种组成元素:实体(entity,如Alibaba Group),类(class,实体所属的类别,如Company),关系(relation,如Alibaba Group isA Company,isA即是关系),属性(property),字面值(iteral,如日期、数值等)等。不同的知识库是异构的,因此可以互为补充。例如DBPedia有很多实体(entity)但只有少量的class,而YAGO则拥有成千上万的class(见下表),倘若可以link这两个知识库,便可以起到互相补充以提高知识库覆盖度的作用。

Dataset #Entity #Class #Property
YAGO 3.03M 360K 70
DBPedia 2.49M 0.32K 1.2K

通常,我们会以三元组$(s, p, o)$ 表达知识库中的一条条事实: $s = subject$ ,可以是实体或类;$o = object$ ,可以是实体、类或字面值; $p = predicate$ (谓词),可以是关系或属性。

先贴一下方案的框架图,可以看到:输入是两个知识库$K$和$K'$,输出是两个知识库之间匹配的实体对,主要流程有Entity Partition,Partial Order Construction,Question Selection和Error Tolerance。
image.png

接下来,我们看看论文作者是如何环环相扣,以较小的计算量和花销解决实体对齐问题的。

Entity Partition

快读

将大规模知识库切成一个个的小块,目的是使得落在同一个块中的实体对大概率可对齐,而不同块之间的实体则不大可能匹配。作者基于事实观察,创新地以谓词为线索进行切分。通过寻找每个谓词的匹配谓词,并根据谓词与实体的对应关系,便可得到与该谓词对相关的2个实体集,进一步可计算出匹配谓词对的相似度。当拿到所有匹配谓词对的相似度后,即可通过改进的HAC算法完成谓词对的合并,最终得到实体对的切块结果。由于块与块之间不存在重叠,后续判断实体对是否匹配的过程即可在各个块内并发进行,大大降低复杂度。Entity Partition是使得本文所提方法能应用于大规模知识库的重要一步。

读后感受:作者以谓词为线索进行知识库切分,是思路比较创新的地方;另外,对经典的HAC聚类算法做了简单的改进,降低了复杂度,让方法落地成为可能。

符号一览

符号 描述
$\Phi$ 谓词集, $\Phi = \\{p_1, p_2, ..., p_m \\}$
$T(p_i)$ 由谓词$p_i$构成的元组集合,

$$ T(p_i)=\\{(s, o) \mid (s, p_i, o) \in K, p_i \in \theta\\} $$

|
| $SIM(p_i, p'_j)$ | 谓词相似度(Predicate Similarity) |
| $\mathbb P$ | 匹配谓词对集合(The set of matching predicate pairs) |
| $\mathbb P_i$ | 匹配谓词对集合的第i个partition,不同的$\mathbb P_i$之间不相交,且并集是 $\mathbb P$ |
| $P_i$ | $\mathbb P_i$包含的实体集,$P_i = \\{(s, s') \mid (s, p_i, o) \in K, (s', p'_j, o') \in K', (p_i, p'_j) \in \mathbb P \\}$ |
| $pp^k$ | 匹配谓词对(论文中对前后出现的$pp^k$的定义略有不同,以后文出现的定义为准:$pp^k=(p_i, p'_j)$,表示某个partition中的第k个匹配谓词对) |
| $S(pp^k)$ | 谓词$p_i$对应的实体集,$S(pp^k)=\\{s \mid s, p_i, o\\}$ |
| $S'(pp^k)$ | 谓词$p'_j$对应的实体集,$S'(pp^k)=\\{s' \mid s', p'_j, o'\\}$ |
| $\rho(pp^i, pp^j)$ | 匹配谓词对的相似度(Similarity of Matching Predicate Pairs) |
| $W$ | 谓词对相似度矩阵(Entity Partition阶段会用到) |

动机

实体划分的目的是将大规模知识库切成多个划分(patition),从而减少匹配空间,降低计算复杂度。如果直接对实体开刀来做这个划分的工作,势必绕不开巨大的计算量和时间开销。已有的自动对齐算法(automatic alignment algorithms),利用class hierarchy来分割KB。但本文的切入角度更新颖。

我们有如下发现:
(1)相似的实体拥有相同的谓词,比如人都有“出生地”和“出生日期”;
(2)相同的谓词意味着对应的实体是相似的,例如拥有谓词“出生地”的实体可以推断为“人”;
(3)一个知识库中可能有很多实体,但谓词的数量一定不会太多。

基于以上3点,可以巧妙地借助“谓词”对2个知识库中的实体对(entity pair)进行划分,得到多个partition。具体而言,是通过将相似度比较高的谓词对(涉及 谓词对相似度 计算)划分在同一个块内,进而反推出实体对的分块结果。后续的实体对齐,都只在每个partition中单独、并行地进行,达到降低复杂度的作用。

为了计算 谓词对相似度 ,先给出 谓词相似度 的计算方法。

谓词相似度

谓词$p_i$和$p'_j$分别来自知识库$K$和$K'$,相似度计算如下:

$$ \begin{align} SIM(p_i,p'_j)=\frac{|T(p_i) \bigcap T'(p'_j)|}{|T(p_i) \bigcup T'(p'_j)|} \end{align} $$

当$(s,p_i,o)$和$(s,p'_j,o)$分别是知识库$K$和$K'$的三元组时,我们有$(s,o) \in T(p_i) \bigcap T'(p'_j)$. $|\centerdot|$表示集合大小,$T(p_i)$的定义参见上文的符号表。

有了谓词相似度的计算方法,对于$K$中的每个谓词$p_i$,都可找到$K'$中与之最相似的那个谓词$p'_j$,称$pp^k=(p_i, p'_j)$为匹配谓词对。

对于每个匹配谓词对,都对应有两个实体集:与谓词$p_i$相关的$S(pp^k)=\\{s \mid s, p_i, o\\}$和与$p'_j$相关的$S'(pp^k)\\{s' \mid s', p'_j, o'\\}$。这俩东东将会用于下面谓词对相似度的计算。

谓词对相似度

$$ \begin{align} \rho(pp^i,pp_j)=\frac{cos(S(pp^i), S(pp^j)) + cos(S'(pp^i), S'(pp^j))}{2} \end{align} $$

其中,cos表示两个集合的余弦距离。

接下来,通过改进的HAC聚类算法,即可得到谓词对的划分。Naive的HAC算法复杂度是$O(n^3)$,非常低效。为了加速算法收敛,本工作对每一轮谓词对的合并设定了阈值间隔0.1,使得迭代次数成为常数,将算法复杂度降低到了$O(n^2)$.

最后,由谓词对的划分,将谓词对应的实体列出来,即可得到实体对的划分,完成Entity Patition过程。

一个例子

image.png
【纠正下:上图Phase I中的$KB_1$和$KB_2$,作者给写反了】

假设经过Phase I,得到5个谓词对,$pp^1 \sim pp^5$,且实体和谓词的对应关系如图中Phase II所示。计算得到谓词对相似度如下:$\rho(pp^1, pp^2)=0.82$,$\rho(pp^2, pp^3)=1$,$\rho(pp^4, pp^5)=0.82$,$\rho(pp^2, pp^4)=0.33$,$\rho(pp^2, pp^5)=0$. 给定阈值0.8,并执行改进的HAC聚类算法,可得到2个谓词对集合$\\{pp^1, pp^2, pp^3\\}$和$\\{pp^4, pp^5\\}$。根据谓词与实体的对应关系,便可得到最终实体对的划分结果:$\\{(e^i_1, e^j_2)|i,j = 1,2,3\\}$和$\\{(e^i_1, e^j_2)|i,j = 3,4,5\\}$.

Partial Order Construction

快读

将知识库分块后,并行地在每个块内构件偏序集,目的是使得“通过已知问题推断未知问题的答案”成为可能,这样做可进一步降低开销。作者基于实体对之间的相似度关系给出偏序定义。当我们能对每个实体对计算出谓词相似度和总相似度后,偏序关系即可建立。

读后感受:作者对这部分的工作做得非常细致,不仅体现在对权重计算的精准追求上,也体现在对复杂度的极致优化上。

符号一览

符号 描述
$p_{ij}$ 实体对$(e_i, e_j)$,$(e_i, e_j) \in P $
$s_{ij}^k$ $p_{ij}$在匹配谓词对$pp^k$上的相似度
$s_{ij}$ $p_{ij}$在某个partition中所有匹配谓词对上的相似度
$qf(p_i)$ $p_i$的Functionality
$\omega_k$ 谓词$p_k$的权重(不同的谓词有不同的重要性)
$\theta$ $s_{ij}$的阈值,用于控制matching scale

动机

构建偏序集的目的是:仅通过少量已知问题的答案,就可以推断出那些未知问题的答案。这里跟半监督学习中样本提纯阶段的思想有点儿像。

在每个partition中并行地构建偏序集。偏序定义如下:

给定2个实体对$p_{ij}=(e_i, e_j)$, $p_{i'j'}=(e_{i'}, e_{j'})$,当满足$s^k_{ij} \geq s^k_{i'j'}$且$\sum_k(s^k_{ij})>\sum_k(s^k_{i'j'})$,有$p_{ij} \succ p_{i'j'}$,我们说$p_{ij}$和$p_{i'j'}$是可比较的,且$p_{ij}$ precedes $p_{i'j'}$($p_{ij}$在$p_{i'j'}$之前/之上) 或$p_{i'j'}$ succeeds $p_{ij}$($p_{i'j'}$在$p_{ij}$之后/之下)。

由此可见,只要计算出实体对在各个匹配谓词对$pp^k$上的相似度$s_{ij}^k$,以及实体对相似度(The total entity pair similarity)$s_{ij}$,即可轻松构建出偏序集。

实体对相似度计算

话虽这样讲,$s_{ij}$却不是那么容易计算的。我们且看作者是如何处理的:
前文提到过,谓词可以是关系或属性,因此计算$s_{ij}^k$时,根据谓词的类型形成“关系对”或“属性对”,进一步构建“关系向量对”或“属性向量对”,以两个向量的余弦相似度作为$s_{ij}^k$。

当然,我们完全可以在得出$s_{ij}^k$后,简单粗暴取个平均值即作为$s_{ij}$的值。但是要想拿到Best Paper奖,这么做必然是差了点儿意思。

作者认为,不同的谓词,其重要性不同,因此有必要赋予不同的权重。为了表达谓词的权重,定义2个概念:

  • Functionality:$qf(p_i)$,很容易计算:

$$ \begin{align} qf(p_i)=\frac{|\\{s|\exists o:(s,p_i,o) \in K\\}|}{|\\{\ |(s,p_i,o) \in K\\}|} \end{align} $$

  • Inverse Functionality:$qf^{-1}(p_i)=qf(p^{-1}_i)$,其中$p^{-1}_i$是$p_i$是倒置,e.g., 如果有$(s,p_i,o)$,那么有$(o,p^{-1}_i,s)$.

谓词权重基于Inverse Functionality来计算:

$$ \begin{align} s_{ij}=\sum_{k=1}^m \omega_k \centerdot s^k_{ij} \end{align} $$

其中,

$$ \begin{align} \omega_k=\frac{qf^{-1}(p_k)}{\sum_{t=1}^m qf^{-1}(p_t)} \end{align} $$

理论上,有了上述计算结果,根据偏序的定义即可得到偏序集。但这中间存在计算复杂度的问题:如果一个partition中来自$K$和$K'$的实体数量依然较多,通过笛卡尔积操作将会组合得到非常多的实体对,使得上述的计算开销依然不小。

为了解决这个问题,作者先后采取了2个手段:通过倒排索引(inverted index)和前缀过滤器(prefix filter)技术prune匹配空间,然后再计算$s_{ij}$;随后,设定阈值$\theta$进一步过滤实体对。最终,构建偏序集的算法复杂度由$\mathcal O(n^2)$降低到$\mathcal nlog^{m-1}n+|\varepsilon|$,$m$是匹配谓词对的数量,$|\varepsilon|$是实体对构成的偏序数量。

一个例子

假设某个partition中有4个谓词对,谓词权重分别是0.439, 0.0486, 0.0244, 0.488;假设来自知识库$K$和$K‘$各有5个实体,此时通过笛卡尔积操作将得到25个实体对,进一步假设通过阈值过滤后,剩下7个实体对。按上文所述方法,分别计算得到每个实体对的$s_{ij}^k$和$s_{ij}$。最后根据偏序的定义,即可得到偏序关系如下图所示。

image.png

Question Selection

快读

偏序集构建完毕后,眼下的任务是从中选取一些问题,分发给众包参与者,获取答案后对偏序集中的其他未知问题进行推理。不同的问题(或者说实体对)具有不同的推断能力,我们的原则是挑选哪些推断能力比较强的问题入选问题集,并分发给众包参与者来获取答案。为了衡量某个实体对(或者说某个问题)的推断能力,作者提出了推断期望的概念,并分别给出了 实体对推断期望问题集推断期望 的计算方法。作者证明了Question Selection是NP-hard的,并给出了2个启发式的算法来解决。

读后感受:衡量实体对的推断能力是个不太容易的事情,作者提出了推断期望的概念,并巧妙地通过一个假设,让推断期望的计算成为可能。行文至此,作者依然不断地定义问题、证明问题NP-hard、给出算法解决问题并分析复杂度,在内容饱满度方面依然感人。不过进入到这里后,论文中的小瑕疵开始变多,有些重要的地方缺少表述,还有不少typo. 精读过程中若有任何疑问,期待与你交流!

符号一览

符号 描述
$\mathcal B$ 预算
$pre(p_{ij})$ 偏序关系中,位于$p_{ij}$上方(或前面)的实体对
$suc(p_{ij})$ 偏序关系中,位于$p_{ij}$下方(或后面)的实体对
$E(p_{ij})$ 实体对$p_{ij}$的推断期望(Inference Expectation)
$Q$ 问题集
$\Delta E(Q)$ $p_{ij}$带来的推断期望增益,$\Delta E(Q)=E(Q \bigcup \\{p_{ij}\\}) - E(Q) $

Inference Model

推断模型是降低开销的举措,目的是在只知道少量问题的答案的情况下,即可根据偏序关系推断出其他问题的答案。不然的话只能人工一个个去标记,耗钱、耗时又耗力。

给定偏序集,如果实体对$p_i$是匹配的,那些位于$p_i$之前的所有实体对都可以初步推断为是匹配的(至于为何表述为“初步匹配”,在下文的Error Tolerance中可见分晓),因为它们的实体相似度比$p_i$的实体相似度更大;同理,如果实体对$p_i$不匹配,那些位于$p_i$之后的所有实体对都可以初步推断为不匹配。这里是给出了定性的描述,下文在定义推断期望时,会有定量的分析。

作者定义Question Selection如下:

给定偏序集,在给定的预算下,选择$\mathcal B$个问题(用于向众包参与者寻求答案),使得可推断出的实体对数量最大化。

注意:$\mathcal B$本来是为众包机制给定的预算,这里相当于假设每个问题的预算是1,那么预算$\mathcal B$就对应$\mathcal B$个问题喽。

此外,根据每个问题的推断能力是否提前已知,作者又分别定义了Offline Problem(已知)和Online Problem(未知)。对于Offline Problem,作者给出了NP-hard证明。同时,Online Problem与之相比更难,因此也是NP-hard的。

下面看看作者是如何计算单个实体对的推断期望和实体对组成的问题集的推断期望的。

单个实体对的推断期望

$$ \begin{align} E(p_{ij})=s_{ij} \centerdot |pre(p_{ij})| + (1-s_{ij}) \centerdot |suc(p_{ij})| \end{align} $$

$pre(p_{ij})$表示位于$p_{ij}$之前/之上的实体对,$suc(p_{ij})$表示位于$p_{ij}$之后/之下的实体对。实体对$p_{ij}$匹配的概率是$s_{ij}$,意味着位于$p_{ij}$之前/之上的实体对有$s_{ij}$的概率可以被推断;同时,实体对$p_{ij}$不匹配的概率是$1-s_{ij}$,意味着位于$p_{ij}$之后/之下的实体对有$1-s_{ij}$的概率被推断。基于此,我们有了上述计算实体对推断期望的公式。

问题集$Q$的推断期望

问题集的推荐期望是指:当我们知道问题集中所有问题的答案时,实体对$p'_{ij}$能被推断的概率,$E(p'_{ij}|Q)$。

当计算得到所有实体对的推断期望后,我们可能自然而然想到:直接把构成问题集的每个实体对的推断期望相加,即是问题集的推断期望。遗憾的是这个问题并没这么简单,因为在问题集中,一个实体对可能有不止一个preceding/succeeding,导致推断期望之间存在overlap.

为了使得问题集的推断期望可计算,我们做出如下假设:
问题集Q中的所有实体对之间,不存在preceding/succeeding关系。

显然,事实上这个假设不成立,因为一定是存在这样的关系。但是通过一些转化,可以让假设成立:如果2个实体对存在前后/上下关系,we can remove one of them as one can be inferred by another.

下面给出不同CASE下$E(p'_{ij}|Q)$的计算方法。

三种CASE

Case 1: $p'_{ij}$ 在问题集$Q$之前/之上
记问题集$Q$中,位于$p'_{ij}$之后的问题子集是$Q^P$,那么$p'_{ij}$可以被推断的概率是:

$$ \begin{align} E(p'_{ij}|Q)=E(p'_{ij}|Q^P)=1-\Pi_{p_{ij} \in Q^P}(1-s_{ij}) \end{align} $$

其中,$s_{ij}$表示问题集$Q^P$中每个实体对$p_{ij}$的相似度。它被$Q^P$推理出的概率等于它不被$Q^P$中任何一个question所推理出的概率(即$\Pi_{p_{ij} \in Q^P}(1-s_{ij}$)的complementary event(即$1-\Pi_{p_{ij} \in Q^P}(1-s_{ij})$)

Case 2: $p'_{ij}$ 在问题集$Q$之后/之下
记问题集$Q$中,位于$p'_{ij}$之前的问题子集是$Q^W$,那么$p'_{ij}$可以被推断的概率是:

$$ \begin{align} E(p'_{ij}|Q)=E(p'_{ij}|Q^W)=1-\Pi_{p_{ij} \in Q^W}(s_{ij}) \end{align} $$

Case 3: $p'_{ij}$ 无法由问题集$Q$推断
意味着$p'_{ij}$是个孤立点,与问题集Q中的任何问题都没有形成偏序关系。此时有:

$$ \begin{align} E(p'_{ij}|Q)=0 \end{align} $$

至此,我们可以计算出问题集的推断期望:

$$ \begin{align} E(Q)=\sum_{p'_{ij}}E(p'_{ij}|Q) \end{align} $$

有个$E(Q)$,就可以进行问题选择了。作者提出了2个算法来解决这个NP-hard问题。

Two Greedy Algorithms

基于推断模型和前文提出的Offline Problem,作者分别提出了串行的SQS和并行的MQS算法,在给定的预算$\mathcal B$下,选出推断能力最好的那些问题。

SQS算法的思路很简单(见下图),复杂度也很低($\mathcal O(\mathcal Bn)$),但是没法实际落地,因为每选出一个问题,就要分发到众包平台等待答案,然后才能开始下一次迭代。。。
思路简述如下:

  1. 计算得到每个实体对的推荐期望
  2. 选择推断期望最高的问题加入问题集$Q$,并分发到众包平台获取答案
  3. 根据答案是YES或NO,将偏序图上位于选中问题之前(答案是YES时)或之后(答案是NO时)的所有实体对节点去除,并重新计算图中剩余实体对的推断期望
  4. 继续从步骤2开始,直到给定的预算消耗完毕(或找到指定数量的问题)
    image.png

MQS算法(见下图)稍微麻烦一点,思想上有点类似于随机森林选特征的过程:根据“$p_{ij}$对问题集的推断期望的增益”来选择问题。
不过对于该算法我有一处疑问:第一轮迭代结束后,$\delta$的值倘若比较大,会导致在后续的迭代中第9行和第12行的条件均不能得到满足,岂不是只能选到一个问题就结束了?(有看懂的小伙伴欢迎留言探讨。针对该疑问,我也会在论文作者答复后进行更新。)

【更新】作者对于该问题释疑如下:

算法对第一个点单独处理了(算法中的第5行),因此$\delta$的初始值是0,而不会是一个较大的值。由此观之,我在上文所提疑问描述的情形并不会存在。

image.png

一个例子

image.png

偏序关系如上图所示,假设预算$\mathcal B=2$。
对于SQS算法:

  1. 计算得到每个实体对的推荐期望;根据前文计算单个实体对推断期望的公式,以$E(p_{55})$和$E(p_{22})$为例,$E(p_{55})=0.52 \times 3 + 0.48 \times 1 = 2.04$,$E(p_{22})=0.52 \times 1+0.48 \times 2=1.48$,其他结果见下图SQS的Iteration 1那一行
  2. 选择推断期望最高的问题$p_{55}$加入问题集$Q$,并分发到众包平台获取答案
  3. 假设答案是YES,根据前文Section“问题集$Q$的推断期望”中给出的假设“问题集Q中的所有实体对之间,不存在preceding/succeeding关系”,此时将$p_{55}$的所有preceding/succeeding都剪枝掉,即:从图中去掉$p_{11}$, $p_{33}$, $p_{44}$和$p_{45}$。此时图中剩余$p_{22}$和$p_{25}$,分别计算得到二者的推断期望为0.96和1,因此选择$p_{25}$
  4. 预算已消耗完毕,得到问题集$p_{55}$和$p_{25}$

对于MQS算法,与SQS的不同之处在于:第一轮按推断期望选问题,后续按推断期望的增益来选,这里不再赘述。

image.png

Error Tolerance

快读

作者关注了2类会影响实体对齐质量的error,其一来自众包参与者$w$,其二是错误推断导致的error传播,并分别提出了解决方案。

读后感受:作者没有放过任何会导致不良结果的因素,并且在方案的选择上,依然不马虎。可以看出来,在整个行文过程中,作者没有在任何一个环节选用低劣的解决方案,每一处都彰显用心。尽管有一些小瑕疵,但丝毫不影响拿下Best Paper奖!

符号一览

符号 描述
$W$ worker集,即所有的众包参与者
$w$ worker,$w \in W$
$\omega$ 权重向量,$w$的权重即是$\omega_w$
$\mathcal A_{w,q}$ worker对$q$的答案
$\hat{r_q}$ $q$的最终答案

Worker Quality Control

为了解决众包参与者引入的error,最简单地,可将同一个问题分发给多个众包参与者,通过投票的方法选择那个被回答次数最多的作为答案。
本文通过一种简单的加权方式来做:

  • 借助众包平台或通过质量测试的结果,得到每个众包参与者的准入分$\omega_w$(0到1),用于衡量参与者的可信程度,并排除掉低分参与者(例如,将准入分小于0.7的参与者排除)
  • 将问题$q$分发给合格的参与者,并收集答案$\mathcal A_{w,q}$
  • 计算问题$q$的最终答案:$\hat{r_q} = \sum_{w \in W}\omega_w\mathcal A_{w,q}$(个人觉得论文原文中这儿的公式 $\hat{r_q} = \sum_{w\in W}\omega_{w,q}\mathcal A_{w,q}$ 是有问题的,因此做了修改);$\hat{r_q}>0$意味着问题$q$对应的实体对是匹配的,否则是不匹配的。

显然,这并不是一个很创新的方案,但有对这个error的处理却是可以让工作更加令人信服。

Error-Propagation Reduction

存在一些indeterministic的$q$对推断结果的质量影响很大,值得我们特别关注。将Indeterministic Query定义为满足如下条件之一:

  • $\hat{r_q}$低于某个阈值(e.g., 0.1)
  • 实体对的相似度很小,却被判为匹配(e.g., $q$对应实体对的$s_{i,j}<0.4, \hat{r_q}>0$)
  • 某实体在2个知识库之间存在一对多的映射,但这些实体对的相似度却相差很小(e.g., $K$中的实体$e_i$同$K'$中的$e_{j}$和$e_{k}$均形成实体对,但$|s_{ij}-s_{ik}|<0.1$)

当遇到这样的$q$时,需要借助额外的2个问题的答案来做出更稳的决策(这就是为何前文只是“初步匹配”的原因)。作者提出的启发式的方法如下,假如$q_i$的答案是YES,得到与$q_i$最相似的ancestor $q_a$和最相似的descendant $q_d$的答案,会有4种情况:

  • $q_a$和$q_d$的答案都是YES:接受$q_i$的答案
  • $q_a$是YES,$q_d$是NO:接受$q_i$的答案
  • $q_a$和$q_d$的答案都是NO:将$q_i$的答案更正为$q_d$的答案
  • $q_a$是NO,$q_d$是YES:直接丢弃

通过下图可以看出,做了Error-Propagation Reduction之后,对对齐质量的提升非常明显($MQS^*$表示改进的$MQS$方法)。
image.png

至此,对CIKM'2017 Best Paper的解读就告一段落了。鄙人不才,有任何不到之处,敬请各位读者批评指正!有任何想法,欢迎随时交流:)

最后放一张与李国良老师的合影结束本文。
image.png$

目录
相关文章
|
4月前
|
机器学习/深度学习 人工智能 算法
300多篇相关研究,复旦、南洋理工最新多模态图像编辑综述论文
【7月更文挑战第11天】复旦、南洋理工联合研究综述了多模态图像编辑,聚焦T2I扩散模型在融合多种输入模式、保持图像真实性和用户友好性方面的挑战与解决方案。论文探讨统一编辑框架,分析算法组件,指出技术进步及未来方向,同时警示伦理和社会影响。[链接:https://arxiv.org/abs/2406.14555]
51 1
|
机器学习/深度学习 存储 人工智能
不避嫌、不遮丑!陈天琦导师自批NeurIPS2018最佳论文:没那么神,问题很多
近日,陈天琦的导师David Duvenaud在NeurIPS 2019上回顾了此前获NeurIPS 2018最佳论文的研究。他表示,这篇论文从写作动机上是为了讨好前辈,在数据处理上没有对基线方法进行调参,导致结果的确定性没那么高,并对一些科技媒体的夸大和不实报道做了澄清。他不避嫌、不遮丑的坦诚态度赢得了网友的好感和敬佩。
619 0
不避嫌、不遮丑!陈天琦导师自批NeurIPS2018最佳论文:没那么神,问题很多
|
机器学习/深度学习 达摩院 算法
同济、阿里的CVPR 2022最佳学生论文奖研究了什么?这是一作的解读(1)
同济、阿里的CVPR 2022最佳学生论文奖研究了什么?这是一作的解读
104 0
|
数据可视化 数据挖掘 大数据
同济、阿里的CVPR 2022最佳学生论文奖研究了什么?这是一作的解读(2)
同济、阿里的CVPR 2022最佳学生论文奖研究了什么?这是一作的解读
186 0
|
人工智能 算法 计算机视觉
MMTracking 食用指南 | 视频目标检测(附AAAI2021论文解读)
VID 旨在检测视频中每一帧出现的物体。 与目标检测相比, VID 允许来自一个视频里的多帧作为输入,但输出形式与目标检测一致。 与多目标跟踪相比, VID 不要求对不同帧中的同一目标进行关联,只需检测出目标即可。
861 0
MMTracking 食用指南 | 视频目标检测(附AAAI2021论文解读)
|
机器学习/深度学习 人工智能 算法
AAAI 2019 四个杰出论文奖论文揭晓
一半都是强化学习论文
562 0
|
机器学习/深度学习 Web App开发 算法
ICML 2018大奖出炉:伯克利、MIT获最佳论文(附论文、项目链接)
人工智能顶级会议ICML 2018即将于7月10日至15日在瑞典首都斯德哥尔摩举行。昨天,大会提前公布了最佳论文获奖名单,在超过600篇被接收论文中,来自MIT和UC Berkeley的研究人员分享了最佳论文的殊荣。
1555 0
下一篇
无影云桌面