-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathatom.xml
584 lines (309 loc) · 138 KB
/
atom.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
<?xml version="1.0" encoding="utf-8"?>
<feed xmlns="http://www.w3.org/2005/Atom">
<title>hellojet</title>
<link href="/atom.xml" rel="self"/>
<link href="http://yoursite.com/"/>
<updated>2020-06-19T08:28:25.423Z</updated>
<id>http://yoursite.com/</id>
<author>
<name>李洁厅</name>
</author>
<generator uri="http://hexo.io/">Hexo</generator>
<entry>
<title>Knowledge Graph Embedding Summary</title>
<link href="http://yoursite.com/2020/06/19/2020-06/Knowledge%20Graph%20Embedding%20Summary/"/>
<id>http://yoursite.com/2020/06/19/2020-06/Knowledge Graph Embedding Summary/</id>
<published>2020-06-19T08:10:49.000Z</published>
<updated>2020-06-19T08:28:25.423Z</updated>
<content type="html"><![CDATA[<h1 id="Knowledge-Graph-Embedding-Summary"><a href="#Knowledge-Graph-Embedding-Summary" class="headerlink" title="Knowledge Graph Embedding Summary"></a>Knowledge Graph Embedding Summary</h1><h2 id="K-Bert"><a href="#K-Bert" class="headerlink" title="K-Bert"></a>K-Bert</h2><p><a href="https://zhuanlan.zhihu.com/p/103661878" target="_blank" rel="noopener">https://zhuanlan.zhihu.com/p/103661878</a></p><p>在下游任务中融入三元组领域知识,为了方式过多的三元组是原始的句子偏离原意</p><p>本文引入了soft-postition和visible matrix来限制知识的负面影响,将领域知识注入模型而不需要重新预训练</p><ol><li>三元组接在对应的entity后面,给予顺序的position token;</li></ol><p>因为bert是词袋模型,本身没有顺序,所以可以通过position token来控制哪些文本离实体近,哪些文本离实体远 </p><ol start="2"><li>接下来就是attention mask了,在自回归模型中通过attention mask来控制可看到的视野</li></ol><p>而这里也是一样,当碰到实体时,实体的信息来自于原始句子以及三元组信息</p><p>当碰到非实体时,信息来自于原始信息</p><p>当碰到三元组时,信息仅仅来自于三元组</p><h2 id="side-information-from-EGES-Enhanced-Graph-Embedding-with-Side-information"><a href="#side-information-from-EGES-Enhanced-Graph-Embedding-with-Side-information" class="headerlink" title="side-information from EGES(Enhanced Graph Embedding with Side information)"></a>side-information from EGES(Enhanced Graph Embedding with Side information)</h2><p><a href="https://zhuanlan.zhihu.com/p/69069878" target="_blank" rel="noopener">https://zhuanlan.zhihu.com/p/69069878</a></p><p>GES:</p><p>对每个item,让他的属性信息进行embedding,然后均值表示该item的embedding</p><p>之后就是deepwalk 随机游走+word2vec的过程</p><p>EGES:</p><p>不同属性施加不同权重,权重由训练得到,每个商品是有自己的一套权重</p><p>然后还采用了加权的skip gram模型,</p><h2 id="TransE-and-extensions"><a href="#TransE-and-extensions" class="headerlink" title="TransE and extensions"></a>TransE and extensions</h2><h3 id="TransE"><a href="#TransE" class="headerlink" title="TransE"></a>TransE</h3><p>男人-女人=国王-王后,transE来自于词向量中的这种语言规律</p><p>h + r ≈ t</p><p>打分函数设计:h+r-t的一二范式</p><p>无法处理1toN,Nto1,NtoN关系,比如A的B是C、D、E…,虽然CDE不是同一个实体,但是却有相似的向量表示。</p><p>训练过程:</p><ol><li><p>初始化</p></li><li><p>minibatch,负采样(三元组中某一实体随机替换掉)</p></li><li><p>梯度下降</p></li></ol><h3 id="TransH"><a href="#TransH" class="headerlink" title="TransH"></a>TransH</h3><p>将r作为超平面上的向量,每个r在自己的超平面,h和t需要通过w_r映射到r所在的超平面;因此在每个关系下,一个实体有不同角色</p><p>h = h - w_r^T <em> h </em> w_r<br>t = t - w_r^T <em> t </em> w_r</p><p>打分函数是映射后的二阶距离</p><h3 id="TransR"><a href="#TransR" class="headerlink" title="TransR"></a>TransR</h3><p>与TransH相似,r具有自己的空间</p><p>h = W_r <em> h<br>t = W_r </em> t</p><h3 id="TransD"><a href="#TransD" class="headerlink" title="TransD"></a>TransD</h3><p>简化TransR</p><p>W_r^1 = w_r <em> w_h^T + I<br>W_r^2 = w_r </em> w_t^T + I</p><p>h = W_r^1 <em> h<br>t = W_r^2 </em> t</p><p>减少参数量</p><h3 id="TranSparse"><a href="#TranSparse" class="headerlink" title="TranSparse"></a>TranSparse</h3><p>另一种简化TransR的方法</p><p>h = M_r <em> \theta_r </em> h 稀疏映射</p><p>theta代表投影矩阵的稀疏程度</p><h3 id="TransM"><a href="#TransM" class="headerlink" title="TransM"></a>TransM</h3><p>在打分函数前乘一个权重theta_r,对于一对多多对一多对多关系,分配较小的权重,允许在这些关系下,t和h+r可以离得较远</p><h3 id="ManifoldE"><a href="#ManifoldE" class="headerlink" title="ManifoldE"></a>ManifoldE</h3><p>换了一种应对多对多的方式:</p><p>|h+r-t|_2^2 ≈ theta_r^2</p><p>h+r-t允许出现在一个半径为theta_r的误差圆上</p><h3 id="TransF"><a href="#TransF" class="headerlink" title="TransF"></a>TransF</h3><p>只需要t和h+r的方向相同</p><p>打分函数:(h+r) ^ T <em> t + (t-r) ^ T </em> h</p><h3 id="TransA"><a href="#TransA" class="headerlink" title="TransA"></a>TransA</h3><p>M_r:对称非负矩阵,距离矩阵</p><p>打分函数:马氏距离 -(|h+r-t|)^T <em> M_r </em> (|h+r-t|)</p><p>学习M_r可以处理复杂关系(不懂)</p><h2 id="Gaussian-Embeddings"><a href="#Gaussian-Embeddings" class="headerlink" title="Gaussian Embeddings"></a>Gaussian Embeddings</h2><p>TransE等将实体和关系作为空间中的一个确定的点,而Gaussian Embeddings将他们作为一个不确定的随机变量</p><h3 id="KG2E"><a href="#KG2E" class="headerlink" title="KG2E"></a>KG2E</h3><p>h t r服从多元高斯分布</p><p>打分函数:</p><p>t-h和r服从两个高斯分布,可以导出两种距离:KL散度和概率内积</p><h3 id="TransG"><a href="#TransG" class="headerlink" title="TransG"></a>TransG</h3><p>一个关系有多个语义,因此关系服从混合高斯分布 \Sigma(π_r^i * μ_r^i),i代表第i种语义</p><p>打分函数是多中关系语义距离的混合</p><h2 id="RESCAL-and-extensions"><a href="#RESCAL-and-extensions" class="headerlink" title="RESCAL and extensions"></a>RESCAL and extensions</h2><h3 id="RESCAL"><a href="#RESCAL" class="headerlink" title="RESCAL"></a>RESCAL</h3><p>实体:向量;关系:矩阵</p><p>打分函数:h^T <em> M_r </em> t (双线性函数?)</p><p>捕捉h和t两两维度之间的交互</p><p>好像相当于h和t进行拼接,过一层参数为M_r的隐层,得到打分函数的值</p><p>也有将M_r分解来减少参数量的</p><h3 id="TATEC"><a href="#TATEC" class="headerlink" title="TATEC"></a>TATEC</h3><p>除了RESCAL中的三者交互打分函数,还有两两之间的交互</p><p>h^T <em> r、 t^T </em> r、h^T <em> D </em> t (D是所有关系共享参数的对角矩阵)</p><h3 id="DistMult"><a href="#DistMult" class="headerlink" title="DistMult"></a>DistMult</h3><p>简化RESCAL,将M_r限制为对角矩阵</p><p>打分函数:h^T <em> diag(r) </em> t</p><p>只捕捉h和t在相同维度的交互,只能处理对称关系,不适用于一般性的KG</p><h3 id="Holographic-Embeddings(HolE)"><a href="#Holographic-Embeddings(HolE)" class="headerlink" title="Holographic Embeddings(HolE)"></a>Holographic Embeddings(HolE)</h3><p>将RESCAL和DistMult进行结合</p><p>h和t之间进行循环相关操作(h的维度k和t的维度k到k+d之间进行交互);对两两交互进行压缩</p><p>打分函数:r^T * (h 循环相关操作 t)</p><p>可以跟RESCAL一样建模非对称关系</p><h3 id="Complex-Embeddings-ComplEx"><a href="#Complex-Embeddings-ComplEx" class="headerlink" title="Complex Embeddings (ComplEx)"></a>Complex Embeddings (ComplEx)</h3><p>实体和向量在复数空间</p><p>HolE是ComplEx的一种关于共轭对称的特殊情况(小朋友你是否有很多???)</p><h3 id="ANALOGY"><a href="#ANALOGY" class="headerlink" title="ANALOGY"></a>ANALOGY</h3><p>建模实体和关系的相似属性,比如阿尔弗莱德·希区柯克之于《惊魂记》就像詹姆斯·卡梅隆之于《阿凡达》</p><p>打分函数也采用RESCAL所采用的双线性函数</p><p>为了学习上面说的相似结构,需要M_r的线性映射是具有标准型(转置相乘交换相等)和交换性</p><p>DistMult、HolE、ComplEx可以被归纳为ANALOGY的特例(???)</p><h2 id="Matching-using-neural-network-architectures"><a href="#Matching-using-neural-network-architectures" class="headerlink" title="Matching using neural network architectures"></a>Matching using neural network architectures</h2><p>用神经网络来进行语义匹配</p><h3 id="Semantic-Matching-Energy(SME)"><a href="#Semantic-Matching-Energy(SME)" class="headerlink" title="Semantic Matching Energy(SME)"></a>Semantic Matching Energy(SME)</h3><p>打分函数:g_u(h,r)^T * g_v(t,r)</p><p>g_u和g_v有两个版本:</p><p>线性: M_u^1 <em> h + M_u^2 </em> r + b_u</p><p>双线性: ( M_u^1 <em> h ) 点乘 (M_u^2 </em> r) + b_u</p><h3 id="Neural-Tensor-Network-NTN"><a href="#Neural-Tensor-Network-NTN" class="headerlink" title="Neural Tensor Network (NTN)"></a>Neural Tensor Network (NTN)</h3><p>h和t经过embedding layer,与M_r结合,经过一个非线性隐层,最后经过一个与关系相关的打分输出层</p><p>r^T <em> tanh(h^T </em> M_r <em> t + M_r^1 </em> h + M_r^2 * t + b_r)</p><h3 id="Multi-Layer-Perceptron-MLP"><a href="#Multi-Layer-Perceptron-MLP" class="headerlink" title="Multi-Layer Perceptron (MLP)"></a>Multi-Layer Perceptron (MLP)</h3><p>多层感知机</p><p>w^T <em> tanh(M^1 </em> h + M^2 <em> r + M^3 </em> t)</p><p>不同关系之间共享权重</p><h3 id="Neural-Association-Model-NAM"><a href="#Neural-Association-Model-NAM" class="headerlink" title="Neural Association Model (NAM)"></a>Neural Association Model (NAM)</h3><p>h和r拼接,输入L层线性整流层,结果z再与t进行打分t^T * z</p><h2 id="Side-Information-Incorporating"><a href="#Side-Information-Incorporating" class="headerlink" title="Side Information Incorporating"></a>Side Information Incorporating</h2><p>有一些额外的信息可以提高embedding task,比如实体类型、关系路径、上下文描述、逻辑规则;这里讨论如何整合这些信息</p><h3 id="semantically-smooth-embedding-SSE"><a href="#semantically-smooth-embedding-SSE" class="headerlink" title="semantically smooth embedding(SSE)"></a>semantically smooth embedding(SSE)</h3><p>相同类型的实体在embedding空间中相近</p><p>SSE采用两种流性学习方法:</p><ol><li>拉普拉斯特征映射</li></ol><p>1/2 <em> || e_i - e_j||_2^2 </em> w_{ij}^1</p><p>如果两个实体类型相同,则w_{ij}^1=1,否则等于0;当实体类型相同的时候,最小化上述公式</p><ol start="2"><li>局部线性嵌入</li></ol><p>||e_i - \Sigma w_{ij}^2 * e+j||_2^2</p><p>相同类别的邻居实体的线性组合来表示e_i</p><p>上述两个作为正则项来约束embedding task</p><p>SSE无法处理分层的语义类别</p><h3 id="type-embodied-knowledge-representation-learning-TKRL"><a href="#type-embodied-knowledge-representation-learning-TKRL" class="headerlink" title="type-embodied knowledge representation learning (TKRL)"></a>type-embodied knowledge representation learning (TKRL)</h3><p>可以处理分层标签体系和多标签</p><p>平移距离模型+特定类型实体映射</p><p>先将h和t通过特定类型映射矩阵进行映射,然后把r作为两个实体间的平移</p><p>打分函数:-||M_{rh} <em> h + r - M_{rt} </em> t||_1</p><p>为了处理多标签的情况,M_{rh}可以表示为所有类型矩阵的加权平均</p><p>为了处理分层标签的情况,M_{c_i}表示成所有子类的映射矩阵的加权平均或者点乘</p><p>因为每个类别有自己的特定映射矩阵,会有较好的空间复杂度(类别不多应该没问题)</p><p>生成负样本可以通过关系的两端实体类别限制来生成</p><h3 id="path-based-TransE-PTransE"><a href="#path-based-TransE-PTransE" class="headerlink" title="path-based TransE (PTransE)"></a>path-based TransE (PTransE)</h3><p>实体之间可能存在多跳关系r_1->…->r_l;这种关系路径具有丰富的语义信息,可以帮助KG completion</p><p>关系路径可以直接作为特征输入路径排序算法来预测实体间的隐藏关系</p><p>融入关系路径的关键是如何把这种信息在相同的向量空间中表现出来</p><p>一种简单的方式是表示成路径上所有关系表示的组合:组合策略</p><p>经典的组合方式有1. addition相加 2. multiplication 点乘 3. RNN</p><p>PTransE用了这三种组合方式</p><p>损失函数:1/Z <em> \Sigma R(p|h,t) </em> l(p, r)</p><p>R是给定h和t,出现p路径的可靠性,Z是归一项,l表示p和r之间一阶距离越小越好,也用到了ranking loss</p><h3 id="NTN-model-with-textual-information"><a href="#NTN-model-with-textual-information" class="headerlink" title="NTN model with textual information"></a>NTN model with textual information</h3><p>大部分KG中实体具有精确的描述,除了KG中的描述,还可以扩展到文章中的上下文信息</p><p>NTN从辅助语料库中先训练词向量,然后平均作为实体的初始化嵌入</p><p>因为文本信息与KG中的fact分离,所以无法进行交互</p><h3 id="Wang-et-al-’s-joint-model"><a href="#Wang-et-al-’s-joint-model" class="headerlink" title="Wang et al.’s joint model"></a>Wang et al.’s joint model</h3><p>将KG embedding与辅助文本语料库进行对齐,共同进行词嵌入和KG嵌入,此时词向量、实体关系向量在同一空间中</p><p>joint model有三个部分:</p><ol><li><p>knowledge model:embed entities and relations in the KG;TransE的变种</p></li><li><p>text model:embed words in the text corpus;Skip-gram的变种</p></li><li><p>alignment model:guarantees the embeddings of entities/relations and words lie in the same space</p></li></ol><p>对齐有不同的方式:</p><ol><li><p>根据wiki百科中的锚文本进行对齐</p></li><li><p>根据实体描述进行对齐</p></li></ol><p>损失函数:上面三个model的损失之和</p><h3 id="description-embodied-knowledge-representation-learning-DKRL"><a href="#description-embodied-knowledge-representation-learning-DKRL" class="headerlink" title="description-embodied knowledge representation learning (DKRL)"></a>description-embodied knowledge representation learning (DKRL)</h3><p>TransE + entity descriptions</p><p>每个实体有两个向量,基于结构的向量和基于描述的向量</p><p>基于描述的向量由包含的词向量组成,词向量来自CBOW或者CNN encoder。</p><p>打分函数由四部分组成||h_s/d+r-t_s/d||_1</p><h3 id="a-text-enhanced-KG-embedding-model-TEKE"><a href="#a-text-enhanced-KG-embedding-model-TEKE" class="headerlink" title="a text-enhanced KG embedding model(TEKE)"></a>a text-enhanced KG embedding model(TEKE)</h3><p>实体和词的共现网络:对于每个实体,TEKE将文本信息作为实体的在共现网络中的邻居</p><p>实体的文本嵌入定义为词向量的加权平均</p><p>对于每一对(h,r,t)中的关系r, 上下文定义为h和t的上下文的交集</p><p>h = An(h) + h;前面的n(h)是上下文向量,A是权重矩阵,后面的h是bias</p><p>然后将这种表示放到TransE等中学习</p><p>对上下文加权组成实体向量然后进行KG结构化学习,最终更新的是上下文的词向量和权重矩阵,与EGES思想类似</p><h3 id="Logical-Rules"><a href="#Logical-Rules" class="headerlink" title="Logical Rules"></a>Logical Rules</h3><p>逻辑规则,比如x的妻子是y,可以推出x和y是伴侣;这种逻辑规则广泛用于知识获取与推理;也有一些方法是自动从知识图谱中获取逻辑规则的</p><ol><li><p>利用逻辑规则细化模型,逻辑规则作为约束,KGE作为线性规划问题</p></li><li><p>KALE:两个有逻辑规则的事实的打分函数往上做一个逻辑连接再次进行打分</p></li></ol><h3 id="Entity-Attributes"><a href="#Entity-Attributes" class="headerlink" title="Entity Attributes"></a>Entity Attributes</h3><p>KGE中说的关系包括二元关系和属性关系,大部分KGE不区分这两者</p><p>那么有个问题,属性的取值范围是很大的,而关系的取值范围相对较小,如果一起处理,就会变成一个很大的实体关系空间</p><p>关系单独编码在张量中,而属性放在单独的实体-属性矩阵中;矩阵和张量一起进行实体、关系、属性的学习</p><h2 id="Application-of-KGE"><a href="#Application-of-KGE" class="headerlink" title="Application of KGE"></a>Application of KGE</h2><h3 id="Weston-et-al-TransE-with-a-text-based-extractor"><a href="#Weston-et-al-TransE-with-a-text-based-extractor" class="headerlink" title="Weston et al. TransE with a text-based extractor"></a>Weston et al. TransE with a text-based extractor</h3><p>关系分类</p><p>训练阶段:从语料库中学习一个基于文本的提取器以及一个TransE模型对齐到语料库</p><p>基于文本的提取器对关系和mention进行相似度打分,分数用于预测关系</p><p>同时TransE模型来预测新挖掘到的(h,r,t)在KG中的合理性</p><p>测试阶段:给定两个实体h和t,以及所有可能的关系,先用基于文本的提取器进行预测</p><p>预测结果进行打分,该打分包括相似度打分和KG合理性打分</p><h3 id="Riedel-et-al-relation-extraction-by-jointly-embedding-plain-text-and-KGs"><a href="#Riedel-et-al-relation-extraction-by-jointly-embedding-plain-text-and-KGs" class="headerlink" title="Riedel et al. relation extraction by jointly embedding plain text and KGs"></a>Riedel et al. relation extraction by jointly embedding plain text and KGs</h3><p>关系分类</p><p>文本和KG在同一个矩阵中,矩阵行代表一对实体,列代表KG关系或者textual mention</p><p>对于训练实体对,在矩阵中找到对应的向量(KG关系或者textual mention),如果是KG关系,相当于远程监督,如果是contextual mention相当于是多示例学习?</p><p>对于测试实体对,只有textual mention可获得,然后去预测对应的KG关系</p><h3 id="Question-Answering"><a href="#Question-Answering" class="headerlink" title="Question Answering"></a>Question Answering</h3><p>KG上的QA:给定一个自然语言描述的问题,任务目标是从KG中的三元组中获取答案</p><p>Bordes et al. :</p><p>KG事实与自然语言一起学习向量表示,让其靠近</p><p>S(q,a)为问题与答案之间的相似度</p><h3 id="Collaborative-knowledge-base-embedding-for-recommender-systems"><a href="#Collaborative-knowledge-base-embedding-for-recommender-systems" class="headerlink" title="Collaborative knowledge base embedding for recommender systems"></a>Collaborative knowledge base embedding for recommender systems</h3><p>推荐系统</p><p>在用户-商品交互信息较少的时候,协同过滤无法发挥作用,因此将交互与辅助信息结合有助于提升推荐质量</p><p>利用KG中的异构信息来提高协同过滤的质量</p><p>利用存储在KG中的三种类型信息:结构知识(三元组)、文本知识(商品摘要)和视觉知识(海报图像),来推导项目的语义表示</p><p>使用了TransR学习商品的嵌入,对于文本知识和视觉知识分别使用自编码器来提取文本表示和可视化表示</p><p>e(商品) = s(三元组) + t(文本) + v(视觉) + offset vector</p><p>用户对商品的偏好可以建模成用户和商品的内积</p><p>然后用一个pairwise ranking来学习这些嵌入表示</p><p>测试阶段:给定一个目标用户,商品推荐顺序就是内积的大小表示</p><h2 id="Knowledge-Graph-Embedding-A-Survey-of-Approaches-and-Applications"><a href="#Knowledge-Graph-Embedding-A-Survey-of-Approaches-and-Applications" class="headerlink" title="Knowledge Graph Embedding: A Survey of Approaches and Applications"></a>Knowledge Graph Embedding: A Survey of Approaches and Applications</h2><h3 id="三个步骤"><a href="#三个步骤" class="headerlink" title="三个步骤"></a>三个步骤</h3><p>KGE包含三个步骤:</p><ol><li>表示实体和关系 </li></ol><p>实体通常被表示成向量,关系被表示成向量操作,以向量、矩阵、张量、多元高斯分布、混合高斯等等形式展现</p><ol start="2"><li>定义打分函数</li></ol><p>度量(h,r,t)事实的合理性,KG中有的事实打分比那些没有被发现的事实打分更高。</p><ol start="3"><li>学习实体和关系表示</li></ol><p>一个优化问题,最大化所有观察到的事实的合理性</p><h3 id="两种类型"><a href="#两种类型" class="headerlink" title="两种类型"></a>两种类型</h3><p>KGE分成两种:</p><ol><li>平移距离模型</li></ol><p>使用基于距离的打分函数,把两个实体经过关系的转化后的距离作为一个事实的合理性。</p><p>典型的有:</p><p>(1)TransE及其变种</p><p>(2)Gaussian Embeddings</p><ol start="2"><li>语义匹配模型</li></ol><p>基于相似度的打分函数;实体和关系在向量空间中的潜在语义进行匹配</p><p>典型的有:</p><p>(1)RESCAL及其变种</p><p>(2)神经网络语义匹配</p><h3 id="模型训练"><a href="#模型训练" class="headerlink" title="模型训练"></a>模型训练</h3><p>一、开放世界假设下的模型训练:KG值包括对的事实和未被观察的事实,未被观察的事实可能是错的,也可能是遗漏的</p><ul><li>损失函数:</li></ul><ol><li><p>逻辑损失log(1+exp(-y*f)) 适合语义匹配模型(Trouillon et al.)</p></li><li><p>pairwise ranking loss: max(0, gama-f_positive+f_negative) 适合平移距离模型(Trouillon et al.)</p><ul><li>初始化:</li></ul></li><li><p>从均匀分布或高斯分布随机初始化</p></li><li><p>一些复杂的模型的初始化采用TransE等简单模型的结果</p></li><li><p>采用名字或者描述的平均词向量</p><ul><li>负样本构建:</li></ul></li><li><p>从正样本中替换h或者t,替换方式是随机均匀采样;也有替换关系的</p></li><li><p>可能出现假阴性:(AlfredHitchcock,性别,男性)可能是(詹姆斯·卡梅伦,性别,男性)替换头部的一个错误的反面例子</p></li></ol><p>减少假阴性:替换头或者尾时赋予不同的概率,比如一对多的头替换概率较大,多对一的尾替换概率较大。<br>(分别算头和尾的平均数量,再算个简单概率tph/(tph+hpt)、hpt/(tph+hpt))</p><ol start="3"><li><p>只替换具有相同关系的实体,比如性别男替换成性别女,而不会替换成性别阿凡达</p></li><li><p>Trouillon et al.发现每个正样本生成50个负样本可以在精确率和训练时间之间有个较好的trade-off</p></li></ol><p>二、封闭世界假设下的模型训练:遗漏的事实都是假的</p><ul><li><p>损失函数:</p><p>平方损失 (y-f)^2 y取值为1或者0;未观察到的事实都是假的,y设为0</p><p>逻辑损失</p><p>绝对损失</p><p>在平方损失下,变成了一个张量因式分解问题。</p><p>封闭世界假设遗漏了很多真实事实,而且大部分KG是不完整的;两篇论文证明了开放世界假设下的模型训练出效果比封闭世界假设更好</p></li></ul><h3 id="模型对比"><a href="#模型对比" class="headerlink" title="模型对比"></a>模型对比</h3><ol><li>复杂度</li></ol><p>将实体和关系表示成向量更高效(TransE、TransH、DistMult、ComplEx)</p><p>将关系表示成矩阵TransR、SE、RESCAL)或张量(NTN)有更高的复杂度</p><p>基于神经网络的模型在时间上有更高的时间复杂度</p><ol start="2"><li>下游任务:链接预测</li></ol><p>一些看起来更有表现力的模型并不一定有更好的性能,原因可能是更有表现力的模型有更多的参数需要训练,并且中小型数据上容易过拟合</p><h3 id="下游任务"><a href="#下游任务" class="headerlink" title="下游任务"></a>下游任务</h3><p>分成两类</p><ol><li><p>in-KG applications</p><ul><li><p>链接预测</p></li><li><p>三元组分类</p></li><li><p>实体分类</p></li><li><p>实体统一:对KG中相同的实体进行统一</p></li></ul></li><li><p>out-of-KG applications</p><ul><li>关系抽取</li></ul><p>从实体已经被抽取出来的文本中找到关系;KG被用于关系抽取最多的就是远程监督来回标数据</p></li></ol><ul><li><p>问答</p></li><li><p>推荐系统</p></li></ul>]]></content>
<summary type="html">
<h1 id="Knowledge-Graph-Embedding-Summary"><a href="#Knowledge-Graph-Embedding-Summary" class="headerlink" title="Knowledge Graph Embedding
</summary>
<category term="知识图谱" scheme="http://yoursite.com/categories/%E7%9F%A5%E8%AF%86%E5%9B%BE%E8%B0%B1/"/>
<category term="KGE" scheme="http://yoursite.com/tags/KGE/"/>
</entry>
<entry>
<title>混合高斯参数估计简单代码实现</title>
<link href="http://yoursite.com/2020/05/18/2020-05/%E6%B7%B7%E5%90%88%E9%AB%98%E6%96%AF%E5%8F%82%E6%95%B0%E4%BC%B0%E8%AE%A1%E7%AE%80%E5%8D%95%E4%BB%A3%E7%A0%81%E5%AE%9E%E7%8E%B0/"/>
<id>http://yoursite.com/2020/05/18/2020-05/混合高斯参数估计简单代码实现/</id>
<published>2020-05-18T06:49:43.000Z</published>
<updated>2020-05-18T06:53:29.715Z</updated>
<content type="html"><![CDATA[<h2 id="数据"><a href="#数据" class="headerlink" title="数据"></a>数据</h2><p>十个身高数据,来自男生和女生,目标是估计男生和女生身高的高斯分布参数以及男生和女生的数量分布。</p><p>数据来自:<a href="http://blog.sina.com.cn/s/blog_55d99cc20102xb5y.html" target="_blank" rel="noopener">http://blog.sina.com.cn/s/blog_55d99cc20102xb5y.html</a></p><h2 id="代码"><a href="#代码" class="headerlink" title="代码"></a>代码</h2><figure class="highlight python"><table><tr><td class="gutter"><pre><span class="line">1</span><br><span class="line">2</span><br><span class="line">3</span><br><span class="line">4</span><br><span class="line">5</span><br><span class="line">6</span><br><span class="line">7</span><br><span class="line">8</span><br><span class="line">9</span><br><span class="line">10</span><br><span class="line">11</span><br><span class="line">12</span><br><span class="line">13</span><br><span class="line">14</span><br><span class="line">15</span><br><span class="line">16</span><br><span class="line">17</span><br><span class="line">18</span><br><span class="line">19</span><br><span class="line">20</span><br><span class="line">21</span><br><span class="line">22</span><br><span class="line">23</span><br><span class="line">24</span><br><span class="line">25</span><br><span class="line">26</span><br><span class="line">27</span><br><span class="line">28</span><br><span class="line">29</span><br><span class="line">30</span><br><span class="line">31</span><br><span class="line">32</span><br><span class="line">33</span><br><span class="line">34</span><br><span class="line">35</span><br><span class="line">36</span><br><span class="line">37</span><br><span class="line">38</span><br><span class="line">39</span><br><span class="line">40</span><br><span class="line">41</span><br></pre></td><td class="code"><pre><span class="line"><span class="keyword">import</span> numpy <span class="keyword">as</span> np</span><br><span class="line"><span class="keyword">import</span> math</span><br><span class="line"><span class="comment"># 初始化</span></span><br><span class="line">miu1, sigma1, miu2, sigma2, alpha1 = <span class="number">176</span>, <span class="number">7.86271087</span>, <span class="number">178</span>, <span class="number">7.86271087</span>, <span class="number">0.5</span></span><br><span class="line">alpha2 = <span class="number">1</span>-alpha1</span><br><span class="line"></span><br><span class="line"><span class="comment"># 观测数据</span></span><br><span class="line">heights = [<span class="number">176</span>, <span class="number">178</span>, <span class="number">180</span>, <span class="number">182</span>, <span class="number">181</span>, <span class="number">179</span>, <span class="number">165</span>, <span class="number">166</span>, <span class="number">164</span>, <span class="number">163</span>]</span><br><span class="line"></span><br><span class="line"><span class="comment"># NORMDIST</span></span><br><span class="line"><span class="function"><span class="keyword">def</span> <span class="title">norm_dist_func_false</span><span class="params">(x, _mean, _std)</span>:</span></span><br><span class="line">exponent = (x - _mean)**<span class="number">2.0</span> / (<span class="number">2.0</span> * _std**<span class="number">2.0</span>)</span><br><span class="line"><span class="keyword">return</span> np.exp(-exponent) / (np.sqrt(<span class="number">2.0</span> * np.pi) * _std)</span><br><span class="line"></span><br><span class="line"><span class="comment"># 迭代</span></span><br><span class="line">c = <span class="number">0</span></span><br><span class="line"><span class="keyword">while</span> <span class="keyword">True</span>:</span><br><span class="line"> gama1 = [<span class="number">0</span>] * len(heights)</span><br><span class="line"> gama2 = [<span class="number">0</span>] * len(heights)</span><br><span class="line"> new_miu1, new_sigma1, new_miu2, new_sigma2, new_alpha1, new_alpha2 = <span class="number">0</span>, <span class="number">0</span>, <span class="number">0</span>, <span class="number">0</span>, <span class="number">0</span>, <span class="number">0</span></span><br><span class="line"> <span class="keyword">for</span> i <span class="keyword">in</span> range(len(heights)):</span><br><span class="line"> gama1[i] = alpha1 * norm_dist_func_false(heights[i], miu2, sigma2) / (alpha1 * norm_dist_func_false(heights[i], miu2, sigma2) + alpha2 * norm_dist_func_false(heights[i], miu1, sigma1))</span><br><span class="line"> gama2[i] = <span class="number">1</span> - gama1[i]</span><br><span class="line"> new_miu1 += heights[i] * gama2[i]</span><br><span class="line"> new_sigma1 += gama2[i] * (heights[i] - miu1) * (heights[i] - miu1)</span><br><span class="line"> new_miu2 += heights[i] * gama1[i]</span><br><span class="line"> new_sigma2 += gama1[i] * (heights[i] - miu2) * (heights[i] - miu2)</span><br><span class="line"> N1 = np.sum(gama1)</span><br><span class="line"> N2 = np.sum(gama2)</span><br><span class="line"> new_miu1 /= N2</span><br><span class="line"> new_sigma1 = np.sqrt(new_sigma1 / N2)</span><br><span class="line"> new_miu2 /= N1</span><br><span class="line"> new_sigma2 = np.sqrt(new_sigma2 / N1)</span><br><span class="line"> new_alpha1 = N1 / len(heights)</span><br><span class="line"> new_alpha2 = N2 / len(heights)</span><br><span class="line"> miu1, sigma1, miu2, sigma2, alpha1, alpha2 = new_miu1, new_sigma1, new_miu2, new_sigma2, new_alpha1, new_alpha2</span><br><span class="line"> print(<span class="string">'{}\t{}\t{}\t{}\t{}'</span>.format(miu1, sigma1, miu2, sigma2, alpha1))</span><br><span class="line"> <span class="keyword">if</span> c >= <span class="number">29</span>:</span><br><span class="line"> <span class="keyword">break</span></span><br><span class="line"> <span class="keyword">else</span>:</span><br><span class="line"> c += <span class="number">1</span></span><br></pre></td></tr></table></figure><p>三十次迭代之后的结果已经收敛:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/clipboard_20200518025233.png" alt=""></p>]]></content>
<summary type="html">
<h2 id="数据"><a href="#数据" class="headerlink" title="数据"></a>数据</h2><p>十个身高数据,来自男生和女生,目标是估计男生和女生身高的高斯分布参数以及男生和女生的数量分布。</p>
<p>数据来自:<a href="h
</summary>
<category term="机器学习" scheme="http://yoursite.com/categories/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0/"/>
<category term="机器学习" scheme="http://yoursite.com/tags/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0/"/>
<category term="混合高斯模型" scheme="http://yoursite.com/tags/%E6%B7%B7%E5%90%88%E9%AB%98%E6%96%AF%E6%A8%A1%E5%9E%8B/"/>
</entry>
<entry>
<title>Nested Named Entity Recognition调研</title>
<link href="http://yoursite.com/2020/05/15/2020-05/Nested%20Named%20Entity%20Recognition%E8%B0%83%E7%A0%94/"/>
<id>http://yoursite.com/2020/05/15/2020-05/Nested Named Entity Recognition调研/</id>
<published>2020-05-15T01:13:41.000Z</published>
<updated>2020-05-15T12:10:05.510Z</updated>
<content type="html"><![CDATA[<h2 id="方法"><a href="#方法" class="headerlink" title="方法"></a>方法</h2><p>nested ner第一次被Kim et al. (2003)提出</p><ul><li><p>Alex et al. (2007):双层crf模型,第一层crf用来挖掘细粒度的实体,并对结果进行embedding和词向量一起放入第二层crf,挖掘粗粒度实体</p></li><li><p>Finkel and Manning (2009):基于语法树,适合重叠非交叉实体</p></li><li><p>Lu and Roth (2015):超图是复杂网络里的概念,一条边连接多个节点;用基于超图的标签,从词级标签中学习嵌套信息(需要进一步理解);Katiyar and Cardie (2018)也用到了超图,做的是超图表示学习</p></li><li><p>Xu et al. (2017):借鉴变长编码方法来做,将上下文利用变长编码编码成定长向量,然后识别中心词是否是命名实体。一句话的变长编码应该是可以保证唯一且会随着句子中的词而改变的。</p></li><li><p>Lin et al. (2019a):Sequence-to-Nuggets: Nested Entity Mention Detection via Anchor-Region Networks</p><p><a href="https://zhuanlan.zhihu.com/p/69356826" target="_blank" rel="noopener">笔记</a></p><p>基于一个基本假设:每个实体有一个不能被共享的head word,比如教育部门部长,部长是教育部门部长(PER)的head word,部门是教育部门(ORG)的head word。</p><p>所以本文的方法是先找head word/anchor word并判断类型,再找这个word的region,即基于该词找实体头和实体尾的位置。</p><p>所以对于慢性肾病和肾病的head word是慢性和肾病还是都是肾病?以及这种标注信息怎么获得?</p></li><li><p>Luan et al. (2019):A General Framework for Information Extraction using Dynamic Span Graphs</p><p><a href="https://blog.csdn.net/byn12345/article/details/105670780" target="_blank" rel="noopener">笔记</a></p><p>通过枚举所有的span解决重叠实体问题,span之间通过关系或者共指消解来共享信息,不仅限于bilstm的权重共享,这种共享被称作动态的span graph</p></li><li><p>Fisher and Vlachos (2019):Merge and label: A novel neural network architecture for nested NER.</p><p>先找最细粒度的entity,再看这些entity能不能和其他的或entity组成更长的entity,这种merge被建模成连续值决策,帮助之后的label任务。</p></li><li><p>Shibuya and Hovy (2019):Nested named entity recognition via second-best sequence learning and decoding</p><p>设计了一种新的解码方式(解码之路大有可为!)</p><p>先解码第一层,然后在第一层解码出的实体上通过找2nd best path解码第二层,依次迭代。直到实体长度为等于1.</p><p>这篇文章中的方法使用bert与否对GENIA数据集没有提升帮助。</p></li><li><p>Strakov´a et al. (2019):Neural Architectures for Nested NER through Linearization</p><p>用seq2seq的方法,逐个生成每个token的一个或者多个标签。</p></li><li><p>A Unified MRC Framework for Named Entity Recognition</p><p>用mrc(阅读理解)来做nested ner;文中着重强调了query的建立需要引入关于实体的解释,保证query的多样性;对于nested实体,需要先找到头尾(指针标注),然后对头尾进行匹配(二分类)。</p></li></ul>]]></content>
<summary type="html">
<h2 id="方法"><a href="#方法" class="headerlink" title="方法"></a>方法</h2><p>nested ner第一次被Kim et al. (2003)提出</p>
<ul>
<li><p>Alex et al. (2007):双
</summary>
<category term="自然语言处理" scheme="http://yoursite.com/categories/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86/"/>
<category term="自然语言处理" scheme="http://yoursite.com/tags/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86/"/>
<category term="命名实体识别" scheme="http://yoursite.com/tags/%E5%91%BD%E5%90%8D%E5%AE%9E%E4%BD%93%E8%AF%86%E5%88%AB/"/>
</entry>
<entry>
<title>通过cnSchema设计自己的知识图谱</title>
<link href="http://yoursite.com/2020/05/09/2020-05/%E9%80%9A%E8%BF%87cnSchema%E8%AE%BE%E8%AE%A1%E8%87%AA%E5%B7%B1%E7%9A%84%E7%9F%A5%E8%AF%86%E5%9B%BE%E8%B0%B1/"/>
<id>http://yoursite.com/2020/05/09/2020-05/通过cnSchema设计自己的知识图谱/</id>
<published>2020-05-09T06:16:53.000Z</published>
<updated>2020-05-09T12:14:59.305Z</updated>
<content type="html"><![CDATA[<h1 id="通过cnSchema设计自己的知识图谱"><a href="#通过cnSchema设计自己的知识图谱" class="headerlink" title="通过cnSchema设计自己的知识图谱"></a>通过cnSchema设计自己的知识图谱</h1><h2 id="cnSchema"><a href="#cnSchema" class="headerlink" title="cnSchema"></a>cnSchema</h2><p>知识表示与算法模型是人工智能的两大基石。cnSchema面向中文信息处理,为开放中文知识图谱的建模、生产、推理、学习、交互以及应用落地提供可解释、可迭代、可复用的数据接口标5,支持中文领域知识图谱的构建以及相应AI技术的应用。</p><p>简单来说,cnSchema参照schema.org搞了套中文的web schema标准,大家都按这套schema标准来做的话,中文问答bot就可以方便的获取大量知识图谱数据。</p><p>除了知识图谱schema,cnSchema还支持本体schema的设计。支持实体(class)、属性(attribute)、关系(link),以及本体论中的subclass关系。</p><p>cnSchema还可以做到1. 通过kgapi统一知识图谱数据服务接口;2. kgtool数据转化、校验、可视化;3. 领域扩展schema等等。</p><p>其中领域扩展schema是本文的重点内容,由于cnSchema和kgtool的使用文档太少,故在此记录。</p><p>如果对于schema是如何设计的或者想要进一步了解cnSchema,可以移步:</p><p><a href="https://github.com/cnschema" target="_blank" rel="noopener">https://github.com/cnschema</a></p><p>cnSchema核心概念:</p><p><a href="https://docs.google.com/document/d/19mi3rY1Haf2KY_0kehFAOejszHzyNG5uZTiyQiRclus/edit#" target="_blank" rel="noopener">https://docs.google.com/document/d/19mi3rY1Haf2KY_0kehFAOejszHzyNG5uZTiyQiRclus/edit#</a></p><h2 id="领域扩展schema"><a href="#领域扩展schema" class="headerlink" title="领域扩展schema"></a>领域扩展schema</h2><h3 id="继承"><a href="#继承" class="headerlink" title="继承"></a>继承</h3><p>cnSchema是通过继承来完成schema的扩展的,从kgtool这个项目来看,他已经定义了一系列的标准:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/clipboard_20200509023400.png" alt=""></p><p>其中cns_meta是系统级元数据标准,通常用户不可见。通俗的来说,cns_meta定义了cnSchema作为一个系统时定义的一些系统模块,比如property、template等等,以及数据类型的元数据,比如Text、URL等。如果要用cnSchema是一定要导入这个标准的。</p><p>cns_top继承自cns_meta,定义了顶级数据标准,比如Thing,代表一切事物的总和,所有要增加的实体都是Thing的子类。</p><p>除此之外的一些标准cns_place、cns_person是cnSchema已经定义好的,如果你的知识图谱中存在这些内容(人以及人的各种属性、地点以及地点的各种属性),可以直接继承自他们,不用再重新自己造轮子。</p><p>这些内容你都可以在kgtool的schema目录下看到:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/clipboard_20200509024320.png" alt=""></p><h3 id="扩展schema"><a href="#扩展schema" class="headerlink" title="扩展schema"></a>扩展schema</h3><p>了解了已有的一些schema标准,并已经设计好自己的知识图谱之后,就需要将知识图谱的schema定义下来。schema没有数据是没有意义的,而在得到结构化数据之前必须得先确定好schema,所以设计schema是一个迭代的过程。这就要求我们有一定的方式定义schema的版本迭代。</p><p>幸好的是,cnSchema通过excel文件来人工构造schema,并允许我们做好schema的迭代。</p><p>cnSchema excel格式例子:</p><p><a href="https://docs.google.com/spreadsheets/d/1iZYXZRQAuSAlUpdQdYRffrtJicurm6yUnsJDsEa2CAk/edit#gid=1781706819" target="_blank" rel="noopener">https://docs.google.com/spreadsheets/d/1iZYXZRQAuSAlUpdQdYRffrtJicurm6yUnsJDsEa2CAk/edit#gid=1781706819</a></p><p>通过version、changelog和metadata可以方便控制版本:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/clipboard_20200509025132.png" alt=""></p><p>现在我们只需要把我们设计好的schema填入excel中,就可以完成知识图谱的规范化定义了,就是这么简单。</p><p>让我们着手来看其中一些字段代表的意义:</p><ul><li>表格definition:在此定义实体名(class)、关系名(link)以及属性名(attribute)<ul><li>super:本体论中的上下位关系通过该字段体现</li><li>range:默认是String,对于关系名,可能需要填目标实体的name</li></ul></li><li>表格template:在这里定义二元关系<ul><li>refClass:主语(这里我就用主谓宾来表示二元关系)</li><li>refProperty:谓语</li><li>propertyRan:宾语</li></ul></li><li>表格changelog:记录版本迭代信息</li><li>表格metadata:在此定义版本信息,知识图谱介绍以及需要继承的标准</li></ul><p>如果你已经完成了这份excel的编写,恭喜你已经完成了知识图谱的规范化定义和版本定义。</p><h2 id="schema可视化"><a href="#schema可视化" class="headerlink" title="schema可视化"></a>schema可视化</h2><p>excel并不是cnSchema的标准格式,cnSchema是以json-ld为他schema的发布格式,从kgtool的schema目录下的文件格式就可以看出。</p><p>我们可以通过kgtool来完成转化,具体方式是按照kgtool/cns/cns_io.py中的方式执行即可:</p><figure class="highlight plain"><table><tr><td class="gutter"><pre><span class="line">1</span><br></pre></td><td class="code"><pre><span class="line">python cns/cns_io.py task_excel2jsonld --input_file=local/debug/cns_medicine.xlsx --schema_dir=schema/ --output_dir=schema/ --debug_dir=local/debug/</span><br></pre></td></tr></table></figure><p>执行完成之后,就可以看到在schema下生成了你自己的jsonld文件,这是你获得的第一份schema标准。同时在local/debug下生成了.dot、.json和.xls文件,你可以通过graphviz可视化.dot文件,下面是自定义医学schema部分可视化效果:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200509142815.png" alt=""></p><h2 id="其他"><a href="#其他" class="headerlink" title="其他"></a>其他</h2><h3 id="todo"><a href="#todo" class="headerlink" title="todo:"></a>todo:</h3><ol><li>尝试jsondl2website</li><li><p>同一对主谓语有多个宾语在excel中怎么表示?已提起issue</p></li><li><p>schema验证</p></li><li>数据可视化</li><li>数据验证</li></ol>]]></content>
<summary type="html">
<h1 id="通过cnSchema设计自己的知识图谱"><a href="#通过cnSchema设计自己的知识图谱" class="headerlink" title="通过cnSchema设计自己的知识图谱"></a>通过cnSchema设计自己的知识图谱</h1><h2 i
</summary>
<category term="知识图谱" scheme="http://yoursite.com/categories/%E7%9F%A5%E8%AF%86%E5%9B%BE%E8%B0%B1/"/>
<category term="cnSchema" scheme="http://yoursite.com/tags/cnSchema/"/>
<category term="知识图谱" scheme="http://yoursite.com/tags/%E7%9F%A5%E8%AF%86%E5%9B%BE%E8%B0%B1/"/>
</entry>
<entry>
<title>xgboost笔记</title>
<link href="http://yoursite.com/2020/03/25/2020-03/Xgboost%E7%AC%94%E8%AE%B0/"/>
<id>http://yoursite.com/2020/03/25/2020-03/Xgboost笔记/</id>
<published>2020-03-25T03:49:08.000Z</published>
<updated>2020-03-25T06:35:30.578Z</updated>
<content type="html"><![CDATA[<h1 id="xgboost笔记"><a href="#xgboost笔记" class="headerlink" title="xgboost笔记"></a>xgboost笔记</h1><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/201904/gbdt/%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20200325142857.jpg" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/201904/gbdt/%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20200325142901.jpg" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/201904/gbdt/%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20200325142905.jpg" alt=""></p>]]></content>
<summary type="html">
<h1 id="xgboost笔记"><a href="#xgboost笔记" class="headerlink" title="xgboost笔记"></a>xgboost笔记</h1><p><img src="https://hellojet-blog-1251889946
</summary>
<category term="machine learning" scheme="http://yoursite.com/categories/machine-learning/"/>
<category term="machine learning" scheme="http://yoursite.com/tags/machine-learning/"/>
</entry>
<entry>
<title>GBDT笔记</title>
<link href="http://yoursite.com/2020/03/25/2020-03/GBDT%E7%AC%94%E8%AE%B0/"/>
<id>http://yoursite.com/2020/03/25/2020-03/GBDT笔记/</id>
<published>2020-03-25T02:49:08.000Z</published>
<updated>2020-03-25T06:33:45.355Z</updated>
<content type="html"><![CDATA[<h1 id="GBDT笔记"><a href="#GBDT笔记" class="headerlink" title="GBDT笔记"></a>GBDT笔记</h1><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/201904/gbdt/%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20200325142812.jpg" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/201904/gbdt/%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20200325142822.jpg" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/201904/gbdt/%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20200325142836.jpg" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/201904/gbdt/%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20200325142845.jpg" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/201904/gbdt/%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20200325142852.jpg" alt=""></p>]]></content>
<summary type="html">
<h1 id="GBDT笔记"><a href="#GBDT笔记" class="headerlink" title="GBDT笔记"></a>GBDT笔记</h1><p><img src="https://hellojet-blog-1251889946.cos.ap-shan
</summary>
<category term="machine learning" scheme="http://yoursite.com/categories/machine-learning/"/>
<category term="machine learning" scheme="http://yoursite.com/tags/machine-learning/"/>
</entry>
<entry>
<title>SVM硬间隔笔记</title>
<link href="http://yoursite.com/2020/03/25/2020-03/SVM%E7%A1%AC%E9%97%B4%E9%9A%94%E7%AC%94%E8%AE%B0/"/>
<id>http://yoursite.com/2020/03/25/2020-03/SVM硬间隔笔记/</id>
<published>2020-03-25T01:49:08.000Z</published>
<updated>2020-03-25T06:45:27.667Z</updated>
<content type="html"><![CDATA[<h1 id="SVM硬间隔笔记"><a href="#SVM硬间隔笔记" class="headerlink" title="SVM硬间隔笔记"></a>SVM硬间隔笔记</h1><h2 id="svm硬间隔"><a href="#svm硬间隔" class="headerlink" title="svm硬间隔"></a>svm硬间隔</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/201904/svm/%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20200325144018.jpg" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/201904/svm/%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20200325144022.jpg" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/201904/svm/%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20200325144033.jpg" alt=""></p><h2 id="什么是对偶问题?"><a href="#什么是对偶问题?" class="headerlink" title="什么是对偶问题?"></a>什么是对偶问题?</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/201904/svm/%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20200325144026.jpg" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/201904/svm/%E5%BE%AE%E4%BF%A1%E5%9B%BE%E7%89%87_20200325144030.jpg" alt=""></p>]]></content>
<summary type="html">
<h1 id="SVM硬间隔笔记"><a href="#SVM硬间隔笔记" class="headerlink" title="SVM硬间隔笔记"></a>SVM硬间隔笔记</h1><h2 id="svm硬间隔"><a href="#svm硬间隔" class="headerli
</summary>
<category term="machine learning" scheme="http://yoursite.com/categories/machine-learning/"/>
<category term="machine learning" scheme="http://yoursite.com/tags/machine-learning/"/>
</entry>
<entry>
<title>elasticsearch使用过程中的一些整理</title>
<link href="http://yoursite.com/2019/11/28/2019-11/elasticsearch%E4%BD%BF%E7%94%A8%E8%BF%87%E7%A8%8B%E4%B8%AD%E7%9A%84%E4%B8%80%E4%BA%9B%E6%95%B4%E7%90%86/"/>
<id>http://yoursite.com/2019/11/28/2019-11/elasticsearch使用过程中的一些整理/</id>
<published>2019-11-28T06:11:47.000Z</published>
<updated>2019-11-28T09:04:30.535Z</updated>
<content type="html"><![CDATA[<p>使用的es版本是<strong>6.4.0</strong>,其他版本不保证同款问题同款解决方案</p><p><strong>查看es版本</strong></p><figure class="highlight plain"><table><tr><td class="gutter"><pre><span class="line">1</span><br></pre></td><td class="code"><pre><span class="line">curl -XGET 'localhost:9200'</span><br></pre></td></tr></table></figure><p><strong>重启es</strong></p><p>粗暴的方式:</p><p>直接杀掉进程,然后进入bin目录执行以下命令进行启动。</p><figure class="highlight plain"><table><tr><td class="gutter"><pre><span class="line">1</span><br></pre></td><td class="code"><pre><span class="line">.\elasticsearch -d</span><br></pre></td></tr></table></figure><p>如果出现报错信息:</p><figure class="highlight plain"><table><tr><td class="gutter"><pre><span class="line">1</span><br></pre></td><td class="code"><pre><span class="line">java.lang.RuntimeException: can not run elasticsearch as root</span><br></pre></td></tr></table></figure><p> 表示无法使用root账户启动es,加启动参数的方法也不行,需要切换到其他账户:</p><figure class="highlight plain"><table><tr><td class="gutter"><pre><span class="line">1</span><br></pre></td><td class="code"><pre><span class="line">su elsearch # elsearch是账户名</span><br></pre></td></tr></table></figure><p>优雅的方式(未成功):</p><figure class="highlight plain"><table><tr><td class="gutter"><pre><span class="line">1</span><br></pre></td><td class="code"><pre><span class="line">systemctl restart elasticsearch.service</span><br></pre></td></tr></table></figure><p>显示:</p><figure class="highlight plain"><table><tr><td class="gutter"><pre><span class="line">1</span><br></pre></td><td class="code"><pre><span class="line">Failed to restart elasticsearch.service: Unit not found.</span><br></pre></td></tr></table></figure><h2 id="ik插件"><a href="#ik插件" class="headerlink" title="ik插件"></a><strong>ik插件</strong></h2><p><strong>安装ik时出现</strong></p><figure class="highlight plain"><table><tr><td class="gutter"><pre><span class="line">1</span><br></pre></td><td class="code"><pre><span class="line">java.net.SocketPermission * connect,resolve</span><br></pre></td></tr></table></figure><p>解决方案,在install后加上-b</p><p><strong>运行ik的quick example出现</strong></p><figure class="highlight plain"><table><tr><td class="gutter"><pre><span class="line">1</span><br></pre></td><td class="code"><pre><span class="line">"analyzer [ik_max_word] not found for field [content]"},"status":400}</span><br></pre></td></tr></table></figure>]]></content>
<summary type="html">
<p>使用的es版本是<strong>6.4.0</strong>,其他版本不保证同款问题同款解决方案</p>
<p><strong>查看es版本</strong></p>
<figure class="highlight plain"><table><tr><td class=
</summary>
<category term="elasticsearch" scheme="http://yoursite.com/categories/elasticsearch/"/>
<category term="elasticsearch" scheme="http://yoursite.com/tags/elasticsearch/"/>
</entry>
<entry>
<title>NAACL2019医疗有关文献阅读</title>
<link href="http://yoursite.com/2019/11/27/2019-11/NAACL2019%E5%8C%BB%E7%96%97%E6%9C%89%E5%85%B3%E6%96%87%E7%8C%AE%E9%98%85%E8%AF%BB/"/>
<id>http://yoursite.com/2019/11/27/2019-11/NAACL2019医疗有关文献阅读/</id>
<published>2019-11-26T16:00:00.000Z</published>
<updated>2019-11-28T06:13:19.839Z</updated>
<content type="html"><![CDATA[<h3 id="Publicly-Available-Clinical-BERT-Embeddings"><a href="#Publicly-Available-Clinical-BERT-Embeddings" class="headerlink" title="Publicly Available Clinical BERT Embeddings"></a>Publicly Available Clinical BERT Embeddings</h3><p>之前有一篇文章是讲生物医疗方面的bert的叫BioBERT,这篇文章的作者训练了新的医疗bert叫做<a href="github.com/EmilyAlsentzer/clinicalBERT">clinicalBERT</a>。数据集是MIMIC-III v1.4两百万的医疗note。作者训练了两个BERT的变体,一个是基于所有note的clinical BERT,一个叫做Discharge Summary BERT,使用出院总结,应对使用出院总结的下游任务(可能在英文中这类任务比较多?)。然后下游任务用了i2b2NER任务(比较经典的一个任务),和MedNLI(18年提出的一个任务)。效果和BioBERT不相上下。</p><h3 id="Medical-Entity-Linking-using-Triplet-Network"><a href="#Medical-Entity-Linking-using-Triplet-Network" class="headerlink" title="Medical Entity Linking using Triplet Network"></a>Medical Entity Linking using Triplet Network</h3><p>正好要做EL的内容。EL一般分成候选实体生成和排序两个阶段。</p><p>文章中生成部分来自C1和C2两个集合,C1是通过计算KB中的实体向量与Mention向量的相似度,根据一个阈值取top k1得到,实体向量是他的同义词向量相加。Mention向量是mention中所有词的向量和。C2是通过mention和候选实体之间的jaccard重合度(换了个相似度度量?),根据阈值取top k2得到。</p><p>排序部分用了triplet网络,编码部分是共享权重的,过embedding之后经conv。然后用距离函数来计算mention和正负实体之间距离,损失函数来最大化两个距离之差:<br>$$<br>L = max(d_p - d_{n_i} + \alpha, 0)<br>$$<br>实验部分用了从wikipedia和pubmed PMC-Corpus上训练的200维词向量。用fastText解决OOV问题。最好的模型效果是subword(字词模型)+abb(缩略词扩展)+Triplet CNN。</p><p>用CNN和fastText模型速度应该会挺快的,针对EL这种需要大量计算的问题来说,效率也很重要。这里实体向量的构建用的是同名,应该可以加上更多的,比如关系之类的来丰富实体语义。</p><h3 id="Attention-Neural-Model-for-Temporal-Relation-Extraction"><a href="#Attention-Neural-Model-for-Temporal-Relation-Extraction" class="headerlink" title="Attention Neural Model for Temporal Relation Extraction"></a>Attention Neural Model for Temporal Relation Extraction</h3><p>对我而言,了解到一个新的概念Temporal Relation Extraction,这个概念来自17年的一篇论文<a href="https://www.aclweb.org/anthology/E17-2118.pdf" target="_blank" rel="noopener">Neural temporal relation extraction</a>.在研究药物不良反应,疾病进展和临床结果等中,时间关系抽取式建立时间线最可行的方式,将每个医疗事件event与发生的时间time联系起来。比如</p><blockquote><p>Patient was diagnosed with a rectal cancer in May of 2010</p></blockquote><p>病人时在May of 2010这个时间包含被诊断为直肠癌这个事件。</p><p>除了time和event之间存在可能的关系,event和event之间也会存在关系,比如在手术期出现心跳加速。所以现在是一个多分类任务,有三种关系1. time contain event或者event contain event、2. event contain-1 time或者event contain-1 event、3.none表示不存在关系。</p><p>论文用到的数据集是THYME(医疗事件的时间)语料库,包含200名患者的临床记录。包含两类实体:time和event,time包括事件日期和事件戳。</p>]]></content>
<summary type="html">
<h3 id="Publicly-Available-Clinical-BERT-Embeddings"><a href="#Publicly-Available-Clinical-BERT-Embeddings" class="headerlink" title="Public
</summary>
<category term="nlp" scheme="http://yoursite.com/categories/nlp/"/>
<category term="nlp" scheme="http://yoursite.com/tags/nlp/"/>
<category term="医疗" scheme="http://yoursite.com/tags/%E5%8C%BB%E7%96%97/"/>
</entry>
<entry>
<title>Attention笔记</title>
<link href="http://yoursite.com/2019/03/05/2019-03/Attention%E7%AC%94%E8%AE%B0/"/>
<id>http://yoursite.com/2019/03/05/2019-03/Attention笔记/</id>
<published>2019-03-05T02:49:08.000Z</published>
<updated>2020-03-10T07:23:01.189Z</updated>
<content type="html"><![CDATA[<h1 id="Attention笔记(从机翻角度)"><a href="#Attention笔记(从机翻角度)" class="headerlink" title="Attention笔记(从机翻角度)"></a>Attention笔记(从机翻角度)</h1><p>[TOC]</p><h2 id="神经翻译系统"><a href="#神经翻译系统" class="headerlink" title="神经翻译系统"></a>神经翻译系统</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/attention/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310151838.png" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/attention/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310151846.png" alt=""></p><h2 id="在seq2seq模型中加入attention"><a href="#在seq2seq模型中加入attention" class="headerlink" title="在seq2seq模型中加入attention"></a>在seq2seq模型中加入attention</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/attention/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310151855.png" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/attention/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310151904.png" alt=""></p><h2 id="全局attention-vs-局部attention"><a href="#全局attention-vs-局部attention" class="headerlink" title="全局attention vs 局部attention"></a>全局attention vs 局部attention</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/attention/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310151918.png" alt=""></p><h2 id="更多思路"><a href="#更多思路" class="headerlink" title="更多思路"></a>更多思路</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/attention/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310151928.png" alt=""></p>]]></content>
<summary type="html">
<h1 id="Attention笔记(从机翻角度)"><a href="#Attention笔记(从机翻角度)" class="headerlink" title="Attention笔记(从机翻角度)"></a>Attention笔记(从机翻角度)</h1><p>[TOC]<
</summary>
<category term="nlp" scheme="http://yoursite.com/categories/nlp/"/>
<category term="CS224n" scheme="http://yoursite.com/tags/CS224n/"/>
<category term="自然语言处理" scheme="http://yoursite.com/tags/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86/"/>
</entry>
<entry>
<title>GRU和LSTM笔记</title>
<link href="http://yoursite.com/2019/02/09/2019-02/GRU%E5%92%8CLSTM%E7%AC%94%E8%AE%B0/"/>
<id>http://yoursite.com/2019/02/09/2019-02/GRU和LSTM笔记/</id>
<published>2019-02-09T02:49:08.000Z</published>
<updated>2020-03-10T07:16:04.838Z</updated>
<content type="html"><![CDATA[<h1 id="GRU和LSTM笔记"><a href="#GRU和LSTM笔记" class="headerlink" title="GRU和LSTM笔记"></a>GRU和LSTM笔记</h1><p>[TOC]</p><h2 id="RNN族机器翻译"><a href="#RNN族机器翻译" class="headerlink" title="RNN族机器翻译"></a>RNN族机器翻译</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/lstm/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310151041.png" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/lstm/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310151107.png" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/lstm/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310151124.png" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/lstm/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310151132.png" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/lstm/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310151146.png" alt=""></p><h2 id="GRU"><a href="#GRU" class="headerlink" title="GRU"></a>GRU</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/lstm/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310151200.png" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/lstm/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310151210.png" alt=""></p><h2 id="LSTM"><a href="#LSTM" class="headerlink" title="LSTM"></a>LSTM</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/lstm/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310151220.png" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/lstm/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310151228.png" alt=""></p>]]></content>
<summary type="html">
<h1 id="GRU和LSTM笔记"><a href="#GRU和LSTM笔记" class="headerlink" title="GRU和LSTM笔记"></a>GRU和LSTM笔记</h1><p>[TOC]</p>
<h2 id="RNN族机器翻译"><a href="#
</summary>
<category term="nlp" scheme="http://yoursite.com/categories/nlp/"/>
<category term="CS224n" scheme="http://yoursite.com/tags/CS224n/"/>
<category term="自然语言处理" scheme="http://yoursite.com/tags/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86/"/>
</entry>
<entry>
<title>RNN笔记</title>
<link href="http://yoursite.com/2019/02/02/2019-02/RNN%E7%AC%94%E8%AE%B0/"/>
<id>http://yoursite.com/2019/02/02/2019-02/RNN笔记/</id>
<published>2019-02-02T02:49:08.000Z</published>
<updated>2020-03-10T07:09:19.392Z</updated>
<content type="html"><![CDATA[<h1 id="RNN笔记"><a href="#RNN笔记" class="headerlink" title="RNN笔记"></a>RNN笔记</h1><p>[TOC]</p><h2 id="传统语言模型的弊端"><a href="#传统语言模型的弊端" class="headerlink" title="传统语言模型的弊端"></a>传统语言模型的弊端</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/rnn/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310150401.png" alt=""></p><h2 id="RNN出现啦!"><a href="#RNN出现啦!" class="headerlink" title="RNN出现啦!"></a>RNN出现啦!</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/rnn/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310150426.png" alt=""></p><h2 id="RNN公式"><a href="#RNN公式" class="headerlink" title="RNN公式"></a>RNN公式</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/rnn/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310150434.png" alt=""></p><h2 id="如何训练RNN"><a href="#如何训练RNN" class="headerlink" title="如何训练RNN"></a>如何训练RNN</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/rnn/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310150442.png" alt=""></p><h2 id="梯度消失和梯度爆炸"><a href="#梯度消失和梯度爆炸" class="headerlink" title="梯度消失和梯度爆炸"></a>梯度消失和梯度爆炸</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/rnn/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310150451.png" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/rnn/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310150458.png" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/rnn/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310150506.png" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/rnn/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310150514.png" alt=""></p>]]></content>
<summary type="html">
<h1 id="RNN笔记"><a href="#RNN笔记" class="headerlink" title="RNN笔记"></a>RNN笔记</h1><p>[TOC]</p>
<h2 id="传统语言模型的弊端"><a href="#传统语言模型的弊端" class="h
</summary>
<category term="nlp" scheme="http://yoursite.com/categories/nlp/"/>
<category term="CS224n" scheme="http://yoursite.com/tags/CS224n/"/>
<category term="自然语言处理" scheme="http://yoursite.com/tags/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86/"/>
</entry>
<entry>
<title>依存句法分析笔记</title>
<link href="http://yoursite.com/2019/01/11/2019-01/%E4%BE%9D%E5%AD%98%E5%8F%A5%E6%B3%95%E5%88%86%E6%9E%90%E7%AC%94%E8%AE%B0/"/>
<id>http://yoursite.com/2019/01/11/2019-01/依存句法分析笔记/</id>
<published>2019-01-11T02:49:08.000Z</published>
<updated>2020-03-10T07:02:48.463Z</updated>
<content type="html"><![CDATA[<h1 id="依存句法分析笔记"><a href="#依存句法分析笔记" class="headerlink" title="依存句法分析笔记"></a>依存句法分析笔记</h1><h2 id="简介"><a href="#简介" class="headerlink" title="简介"></a>简介</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/dependency/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310145912.png" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/dependency/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310145921.png" alt=""></p><h2 id="方法"><a href="#方法" class="headerlink" title="方法"></a>方法</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/dependency/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310145929.png" alt=""></p><h2 id="transition-based-dependency-parsing"><a href="#transition-based-dependency-parsing" class="headerlink" title="transition-based dependency parsing"></a>transition-based dependency parsing</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/dependency/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310145940.png" alt=""></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/dependency/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310145953.png" alt=""></p><h2 id="问题"><a href="#问题" class="headerlink" title="问题"></a>问题</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/dependency/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310150001.png" alt=""></p>]]></content>
<summary type="html">
<h1 id="依存句法分析笔记"><a href="#依存句法分析笔记" class="headerlink" title="依存句法分析笔记"></a>依存句法分析笔记</h1><h2 id="简介"><a href="#简介" class="headerlink" titl
</summary>
<category term="nlp" scheme="http://yoursite.com/categories/nlp/"/>
<category term="CS224n" scheme="http://yoursite.com/tags/CS224n/"/>
<category term="自然语言处理" scheme="http://yoursite.com/tags/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86/"/>
</entry>
<entry>
<title>论文阅读:Enriching Taxonomies With Functional Domain Knowledge</title>
<link href="http://yoursite.com/2019/01/07/2019-01/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB%EF%BC%9AEnriching%20Taxonomies%20With%20Functional%20Domain%20Knowledge/"/>
<id>http://yoursite.com/2019/01/07/2019-01/论文阅读:Enriching Taxonomies With Functional Domain Knowledge/</id>
<published>2019-01-07T12:03:28.000Z</published>
<updated>2019-01-07T12:04:48.000Z</updated>
<content type="html"><![CDATA[<h1 id="阅读文献来源"><a href="#阅读文献来源" class="headerlink" title="阅读文献来源"></a>阅读文献来源</h1><p><strong>Vedula N, Nicholson P K, Ajwani D, et al. Enriching taxonomies with functional domain knowledge[C]//The 41st International ACM SIGIR Conference on Research & Development in Information Retrieval. ACM, 2018: 745-754.</strong></p><p>第一作者Nikhita Vedula:PhD Student, 俄亥俄州立大学(Ohio State University)。个人主页:<a href="http://web.cse.ohio-state.edu/~vedula.5/。发表的paper:" target="_blank" rel="noopener">http://web.cse.ohio-state.edu/~vedula.5/。发表的paper:</a></p><ul><li><strong>Nikhita Vedula</strong>, Patrick K. Nicholson, Deepak Ajwani, Sourav Dutta, Alessandra Sala and Srinivasan Parthasarathy. “Enriching Taxonomies with Functional Domain Knowledge.” <em>In Proceedings of the 41st International ACM SIG Conference on Research and Development in Information Retrieval (SIGIR)</em> , Ann Arbor, MI, July 2018.</li><li><strong>Nikhita Vedula</strong>, Wei Sun, Hyunhwan Lee, Harsh Gupta, Mitsunori Ogihara, Joseph Johnson, Gang Ren and Srinivasan Parthasarathy. “Multimodal Content Analysis for Effective Advertisements on YouTube.” <em>In Proceedings of the IEEE International Conference on Data Mining (ICDM)</em>, New Orleans, LA, November 2017.</li><li><strong>Nikhita Vedula</strong> and Srinivasan Parthasarathy. “Emotional and Linguistic Cues of Depression from Social Media.” <em>In Proceedings of the 7th International ACM Digital Health Conference (DH)</em> , London, UK, July 2017.</li><li><p><strong>Nikhita Vedula</strong>, Srinivasan Parthasarathy and Valerie Shalin. “Predicting Trust Relations in Social Networks: A Case Study on Emergency Response.” <em>In Proceedings of the 9th International ACM Web Science Conference (WebSci)</em>, Troy, NY, June 2017.</p></li><li><p>Hemant Purohit, <strong>Nikhita Vedula</strong>, Krishnaprasad Thirunarayan and Srinivasan Parthasarathy. “Modeling Transportation Uncertainty in Matching Help Seekers and Suppliers during Disasters.” <em>InTI Workshop at the ACM SIG Conference on Research and Development in Information Retrieval (SIGIR)</em>, Ann Arbor, MI, July 2018.</p></li><li><strong>Nikhita Vedula</strong>, Srinivasan Parthasarathy and Valerie Shalin. “Predicting Trust Relations Among Users in a Social Network: The Role of Influence, Cohesion and Valence.” <em>WISDOM workshop at the ACM International Conference on Knowledge Discovery and Data Mining (SIGKDD)</em>, San Francisco, CA, August 2016.</li></ul><h1 id="本文解决的科学问题及研究动机"><a href="#本文解决的科学问题及研究动机" class="headerlink" title="本文解决的科学问题及研究动机"></a>本文解决的科学问题及研究动机</h1><p>用来自新闻或者研究刊物的概念来丰富大规模通用分类系统</p><h2 id="问题"><a href="#问题" class="headerlink" title="问题"></a>问题</h2><p>知识以分层的方式组织存在,比如Wikipedia Categories,Freebase和WordNet。但是,这些分层次的知识难以增加和维持,当新概念和新关系的快速出现。需要<strong>自动化的,可扩展的</strong>技术来解决分类系统扩张问题。</p><p>很多技术依赖于WordNet独特的同义词结构【14,31,37】,不能泛化到其他分类系统上,只能识别新概念到一个单独的分类。</p><h2 id="相关工作"><a href="#相关工作" class="headerlink" title="相关工作"></a>相关工作</h2><p>以前的工作不是:</p><ul><li>语言高度相关【47,48】</li><li>领域高度相关【28】<br> 就是:</li><li>不能扩展到大规模分类系统【3,21,43】</li></ul><p>机器学习方法:给予共现分析【42】,聚类【20】,图构造和遍历【25】,分布式相似度【47,48】。<br>基于语言模式匹配方法【9,25,31,49】<br>基于词嵌入的方法【8,36,38,51】开始流行<br>【8,36】精确率较差,【51】不能泛化到没有见过的关系实例。【38】解决了这些问题,但是对训练数据有和Wikipedia风格的概念和分类名称不一样的要求。<br>本文直接基于加强WordNet分类法来设计模型。<br>【37】用Wikipedia来扩展WordNet。<br>【45】设计了一种将不知道的单词放在其邻居大多集中的地方的方法,这个idea在本文中也被采用了。<br>【47,48】用新的日语词汇来增加日语Wikipedia和WordNet,从维基中找到相似词汇,对上位词打分,选择得分最高上位词作为输出。但是严重依赖日语中的动名词依赖关系,这在英语中不常见。<br>相关问题知识图谱补全:knowledge graph completion,预测实体间关系【3,21,43】。本文将ETF与链接预测方法TransR【21】进行了对比。</p><h1 id="算法框架"><a href="#算法框架" class="headerlink" title="算法框架"></a>算法框架</h1><p>ETF的框架如图:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546826541580.png" alt="1546826541580"></p><ol><li>先学习分类系统中新概念和已存在概念的表征。</li><li>对每个新概念,利用表征来识别这个新概念最相似的一些实体</li><li>将对新概念父类的搜索缩小到对相似实体祖先集的搜索</li><li>使用图论和语义特征的结合作为语义类别的替代品,基于这个来对祖先进行筛选和排序,最后把适当的链接放入分类系统</li></ol><h2 id="1-发现概念和分类关系"><a href="#1-发现概念和分类关系" class="headerlink" title="1.发现概念和分类关系"></a>1.发现概念和分类关系</h2><p>从分类系统结构中获得实体(叶节点)和目录(非叶节点),并利用祖先-子孙关系来构建有向无环图T:分类系统。</p><p>因为我们一般接触的是文本,而非单个新概念实体,所以使用Off-the-shelf命名实体识别算法【11,24】从文本中定位并抽取命名实体。</p><p>从文本中找到区别于已存在实体的新实体是一个问题,但不是本文的重点。</p><h2 id="2-学习概念表征"><a href="#2-学习概念表征" class="headerlink" title="2.学习概念表征"></a>2.学习概念表征</h2><p>基于高效Skip-gram变体【23】。</p><p>最小化损失函数:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546828593852.png" alt="1546828593852"></p><p>先通过消歧名词【22】将预料库D中的出现的实体进行替换(Wikipedia的锚链接)。</p><p>然后在D上训练doc2vec(分布式内存或者段落向量的DM版本)【19】,使用负采样,得到文档的向量表示。DM模型可以同时训练word2vec和doc2vec。</p><p>然后将word2vec的tf加权和(倾向高频)与doc2vec表征(倾向低频)进行聚合。聚合好处:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546829428978.png" alt="1546829428978"></p><p>在得到已存在的概念之后,接下来学习新概念的表征,这是至关重要的一步【44】,用已存在的学习模型产生未见过的实体的表征。之前的工作有【27】重新训练模型,【44,50】基于邻居的半监督学习。本文对每个新概念产生一个上下文c,由频繁项基于tf分数组成。使用c通过梯度下降推出doc2vec嵌入【19】。然后通过加入word2vec的tf加权和得到新概念嵌入。</p><h2 id="3-筛序并排序父类"><a href="#3-筛序并排序父类" class="headerlink" title="3.筛序并排序父类"></a>3.筛序并排序父类</h2><p>有了概念的嵌入,接下来决定新概念最好的父类。对每个新概念使用kNN。假设最好父类与这些近邻的祖先相关。接下来就是排序这些候选父类。</p><p>学习排序模型:使用分类系统图结构中的拓扑特征,从文本中得到的语义特征。尝试了七种模型【13】,最终使用表现最好的LambdaMART【5】。</p><p>基于图的特征:</p><ul><li>Katz Similarity</li><li>Random Walk Betweenness Centrality</li><li>Information Propagation Score</li></ul><p>语义特征:</p><ul><li>Ancestor-Neighbor Similarity</li><li>New concept-Ancestor Similarity</li><li>Pointwise Mutual Information (PMI):点间互信息</li></ul><h1 id="实验"><a href="#实验" class="headerlink" title="实验"></a>实验</h1><p>在Wikipedia Categories和WordNet上评价ETF。</p><h2 id="评价概念表征"><a href="#评价概念表征" class="headerlink" title="评价概念表征"></a>评价概念表征</h2><p>测试新概念的聚合向量嵌入,通过检查和已存在实体的距离。</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546831075503.png" alt="1546831075503"></p><p>28%的新概念与已存在概念有大于0.4的相似度。换句话说,大于70%的新概念和已存在概念分离开来,当相似度阈值设置为0.4的时候。</p><h2 id="评价排序模型"><a href="#评价排序模型" class="headerlink" title="评价排序模型"></a>评价排序模型</h2><p>本文算法和一些baseline(Random,Text similarity, Graph features,Semantic features,TransR)对比。</p><p>下面是不同的模型在几种评价指标下的结果:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546841231166.png" alt="1546841231166"></p><p>和只用图特征(ranker-gr)与只用语义特征(ranker-sem-noPMI)相比,两种特征集合可以有更好的效果。</p><p>下面是在k跳之内能够召回的父类比例:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546841600059.png" alt="1546841600059"></p><h2 id="计算消耗和特征重要性"><a href="#计算消耗和特征重要性" class="headerlink" title="计算消耗和特征重要性"></a>计算消耗和特征重要性</h2><p>本文框架大概平均一分钟插入一个新概念。瓶颈在于随机游走和PMI,其他的特征能够在几秒间完成。PMI可以用【18】快速批量PMI执行来解决。所以瓶颈在于随机游走。</p><p>最重要的三个特征是:information propagation,random walk betweenness centrality和Katz similarity。</p><h2 id="在SemEval-Task-Benchmark-15-上的结果"><a href="#在SemEval-Task-Benchmark-15-上的结果" class="headerlink" title="在SemEval Task Benchmark[15]上的结果"></a>在SemEval Task Benchmark[15]上的结果</h2><p>对比模型:Random synset,First-Word-First-Sense(FWFS),MSejrKU System 2(Task 14的冠军模型)</p><p>评价指标:Accuracy (Wu&Palmer Similarity)【46】,Lemma Match(大概是算法找出的同义词集合中至少包含正确同义词的比例)</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546842089195.png" alt="1546842089195"></p><p>ranker-ETF-FWFS:使用FWFS中用到的二进制特征的排序模型。</p><p>有了FWFS特征的模型表现的最好,FWFS是一个很强的特征,用来排序父类,但是这个特征不容易泛化。</p><h2 id="新兴领域概念"><a href="#新兴领域概念" class="headerlink" title="新兴领域概念"></a>新兴领域概念</h2><p>ETF如何将新兴领域概念加到Wikipedia分类层次结构中。危机应对和医学领域。</p><p>结果表明:对于这两个领域,大多数预测的父类都很好,并且与许多手动分配的父类有重叠。</p><p>对于危机事件,ETF正确地标识了它们的发生年份和许多受影响的区域,只需要初始的文本输入量。</p><p>对医学领域,本文的方法可以区分禽流感和猪流感。还能够为新概念,在没有手动分配的情况下提出准确的分类。</p><h2 id="Quora-问答分类"><a href="#Quora-问答分类" class="headerlink" title="Quora 问答分类"></a>Quora 问答分类</h2><p>将Quora上的问题和答案放到Wikipedia分类中。结果:每个问答有平均8个父类,NDCG=0.445,F1=0.523.比其他的结果都好。</p><h1 id="工作评价"><a href="#工作评价" class="headerlink" title="工作评价"></a>工作评价</h1><p>本文对自动分类系统扩充问题提出了一个解决方案ETF:先通过术语生成的上下文为每个概念学习高维向量嵌入;然后从近邻概念祖先基于图特征和语义特征预测新概念的潜在父类。实验表明ETF在大规模知识图谱Wikipedia和WordNet上比其他算法表现要好。</p><p>ETF有应用于其他文本源(短的社交媒体文本)和分类系统类型(特殊领域)的潜质。允许简单的并行化,并且可以通过分布式实现可伸缩性。ETF使用的所有特性都可以在几秒钟内计算出来,除了random walk betweenness centrality特征。</p>]]></content>
<summary type="html">
<h1 id="阅读文献来源"><a href="#阅读文献来源" class="headerlink" title="阅读文献来源"></a>阅读文献来源</h1><p><strong>Vedula N, Nicholson P K, Ajwani D, et al. Enri
</summary>
<category term="KG" scheme="http://yoursite.com/categories/KG/"/>
<category term="nlp" scheme="http://yoursite.com/categories/KG/nlp/"/>
<category term="分类系统填充" scheme="http://yoursite.com/categories/KG/nlp/%E5%88%86%E7%B1%BB%E7%B3%BB%E7%BB%9F%E5%A1%AB%E5%85%85/"/>
<category term="自然语言处理" scheme="http://yoursite.com/tags/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86/"/>
<category term="论文阅读" scheme="http://yoursite.com/tags/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB/"/>
<category term="知识图谱" scheme="http://yoursite.com/tags/%E7%9F%A5%E8%AF%86%E5%9B%BE%E8%B0%B1/"/>
<category term="分类系统填充" scheme="http://yoursite.com/tags/%E5%88%86%E7%B1%BB%E7%B3%BB%E7%BB%9F%E5%A1%AB%E5%85%85/"/>
</entry>
<entry>
<title>论文阅读:Weakly-supervised Contextualization of Knowledge Graph Facts</title>
<link href="http://yoursite.com/2019/01/07/2019-01/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB%EF%BC%9AWeakly-supervised%20Contextualization%20of%20Knowledge%20Graph%20Facts/"/>
<id>http://yoursite.com/2019/01/07/2019-01/论文阅读:Weakly-supervised Contextualization of Knowledge Graph Facts/</id>
<published>2019-01-07T11:58:28.000Z</published>
<updated>2019-01-07T11:59:52.000Z</updated>
<content type="html"><![CDATA[<h1 id="阅读文献来源"><a href="#阅读文献来源" class="headerlink" title="阅读文献来源"></a>阅读文献来源</h1><p><strong>Voskarides N , Meij E , Reinanda R , et al. Weakly-supervised Contextualization of Knowledge Graph Facts[J]. 2018.</strong></p><p>第一作者是Nikos Voskarides,个人主页:<a href="https://nickvosk.github.io/,就读于美国弗吉尼亚大学(The" target="_blank" rel="noopener">https://nickvosk.github.io/,就读于美国弗吉尼亚大学(The</a> University of Virginia)。研究重点是使用结构化和非结构化信息源提升信息访问。目前的工作是通过描述和语境化内容,使最终用户更容易访问搜索领域的知识图谱。发表的paper:</p><ul><li><strong>Weakly-supervised Contextualization of Knowledge Graph Facts</strong> [<a href="https://arxiv.org/abs/1805.02393" target="_blank" rel="noopener">pdf</a>|<a href="https://www.techatbloomberg.com/research-weakly-supervised-contextualization-knowledge-graph-facts/" target="_blank" rel="noopener">data</a>]<br>Nikos Voskarides, Edgar Meij, Ridho Reinanda, Abhinav Khaitan, Miles Osborne, Giorgio Stefanoni, Kambadur Prabhanjan and Maarten de Rijke.<br>SIGIR 2018.</li><li><strong>Generating Descriptions of Entity Relationships</strong> [<a href="https://staff.fnwi.uva.nl/m.derijke/wp-content/papercite-data/pdf/voskarides-generating-2017.pdf" target="_blank" rel="noopener">pdf</a>|<a href="https://github.com/nickvosk/ecir2017-gder-dataset" target="_blank" rel="noopener">data</a>]<br>Nikos Voskarides, Edgar Meij, and Maarten de Rijke.<br>ECIR 2017.</li><li><strong>Learning to Explain Entity Relationships in Knowledge Graphs</strong> [<a href="https://www.aclweb.org/anthology/P15-1055" target="_blank" rel="noopener">pdf</a>|<a href="https://github.com/nickvosk/acl2015-dataset-learning-to-explain-entity-relationships" target="_blank" rel="noopener">data</a>]<br>Nikos Voskarides, Edgar Meij, Manos Tsagkias, Maarten de Rijke and Wouter Weerkamp.<br>ACL 2015.</li><li><strong>Query-dependent contextualization of streaming data</strong> [<a href="https://staff.fnwi.uva.nl/m.derijke/wp-content/papercite-data/pdf/voskarides-query-dependent-2014.pdf" target="_blank" rel="noopener">pdf</a>|<a href="https://nickvosk.github.io/resources/ecir2014_dataset.zip" target="_blank" rel="noopener">data</a>]<br>Nikos Voskarides, Daan Odijk, Manos Tsagkias, Wouter Weerkamp, and Maarten de Rijke.<br>ECIR 2014.</li></ul><p>Edgar Meij:个人主页:<a href="https://edgar.meij.pro/。" target="_blank" rel="noopener">https://edgar.meij.pro/。</a></p><p>Ridho Reinanda:<a href="https://www.linkedin.com/in/ridhoreinanda/" target="_blank" rel="noopener">https://www.linkedin.com/in/ridhoreinanda/</a></p><h1 id="本文解决的科学问题及研究动机"><a href="#本文解决的科学问题及研究动机" class="headerlink" title="本文解决的科学问题及研究动机"></a>本文解决的科学问题及研究动机</h1><h2 id="问题来源"><a href="#问题来源" class="headerlink" title="问题来源"></a>问题来源</h2><p>KG可以应用于搜索,查询理解,推荐和问答等。最近,[10,17]表明搜索引擎用户发现实体卡片(提供关于检索目标实体的信息)是有用的,就把检索目标实体相关的信息以一种实体卡片集合的方式呈现出来。之前有一些工作就专注于增量检索实体相关实体卡片。<br>但是用户对KG事实感兴趣,而不是对实体感兴趣。比如“谁创立了微软”=》“比尔盖茨”。通过提供检索相关的额外事实可以增加用户对事实的理解。比如额外相关的事实有“比尔盖茨的专业领域”“微软的创立日期”“微软的主要产业”“微软的联合创始人”</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546824712938.png" alt="1546824712938"></p><p>检索相关事实还可以用于QA,自然语言生成。<br>KG事实语境化是通过额外有用的KG事实增加给定KG事实的一类任务。这个任务的难点在于KG的大尺寸:即使是在给定事实小范围邻居内探索其他相关的事实,都会产生数量非常大的候选实体。</p><h2 id="问题数学定义"><a href="#问题数学定义" class="headerlink" title="问题数学定义"></a>问题数学定义</h2><p>E为实体集合,包括非CVT实体$E_n$和CVT实体$E_c$(CVT是指复合值类型实体,比如讲一个人的家庭关系,有他的爸爸是谁,妈妈是谁,那么家庭关系就是一个CVT)。<br>P为谓语<br>K为KG,包含<s,p,o>,即主谓宾,s和o属于E,p属于P,K可被认为是带标签的有向图。<br>path路径在KG中的表示$<s_0, p_0, t_0>,…,<s_m, p_m, t_m>$,其中$t_i=s_{i+1}$<br>fact事实定义为K中的一条路径满足以下任一种情况:</p><ol><li>包含一个三元组,$s_0$属于E,$t_0$属于$E_n$</li><li>包含两个三元组,$s_0,t_1$属于$E_n$,$t_0=s_1$属于$E_c$<br> R关系的集合,r属于R,是有同样谓语不同实体的事实集合的标记。事实f可以表示为r<s,t>。</li></ol><p>给定查询事实$f_q$和K,目标是找到K中相关的事实集F,并对其通过与$f_q$的相关性进行排序。</p><h1 id="算法框架"><a href="#算法框架" class="headerlink" title="算法框架"></a>算法框架</h1><p>本文提出了一种神经事实语境化方法NFCM来解决这个任务。NFCM包括候选事实生成,语境相关候选事实排序。排序模型采用监督学习,特征包括两部分:自动生成的和人工特征。远程监督生成训练数据。具体来说:</p><h2 id="列举候选实体"><a href="#列举候选实体" class="headerlink" title="列举候选实体"></a>列举候选实体</h2><p>给定一个检索事实$f_q$,从K中得到候选事实集F。<br>因为KG的庞大,限制F在实体s和t的<strong>两跳邻居</strong>中取得。<br>对应算法如下:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546824740444.png" alt="1546824740444"></p><p>三条规则:</p><ul><li>CVT不作为一跳</li><li>不把检索事实放入F</li><li>为了减少搜索空间,不扩张表示类或类型的实体<h2 id="事实排序"><a href="#事实排序" class="headerlink" title="事实排序"></a>事实排序</h2>对每个候选事实$f_c$属于F,建立$(f_q,f_c)$对,类似于检索-文档对,并使用函数u进行评分,越高代表相关度越高。得到排序后的候选事实集合F’。<br>接下来是学习函数u:<br>训练一个端到端的神经网络,使用mini-batch和随机梯度下降。<br>使用Adam优化参数,最小化平均pairwise均方误差:<br><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546824756646.png" alt="1546824756646"><br>$x_1=(f_q,f_{c_1})$和$x_2=(f_q,f_{c_2})$是事实对,l(x)函数是事实对的相关性标记,值在01之间。<br><strong>神经网络结构:</strong></li></ul><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546824771015.png" alt="1546824771015"></p><p>使用RNN编码查询事实$f_q$为$v_q$。不编码实体,取而代之编码实体的类型聚合。编码候选事实的时候,先列举到检索事实两跳距离内的所有路径,标为$A$。先用RNN编码A中所有路径,然后组合所有编码路径。<br>最后,使用多层感知机MLP-o集合三个输入(检索事实编码,路径编码,手工特征),RELU作为隐藏层激活函数,sigmoid作为输出层激活函数。</p><h1 id="实验"><a href="#实验" class="headerlink" title="实验"></a>实验</h1><p>KG使用Freebase<br><strong>数据集:</strong>包括检索事实,候选事实,相关度标记。</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546824788957.png" alt="1546824788957"></p><p>上面是通过远程监督从Freebase中提取到的数据集。<br>接下来是得到相关度标记:<br>从Wikipedia筛选得到主要实体在Freebase中的文章。第一步:使用[32]中的实体链接方法来增量有额外实体链接的文章。第二步:保留包含t的文章片段(包含t的句子和前后各一个句子)。最后从这些片段中统计相关度。<br><strong>手工标记评价数据集:</strong>使用crowdsourcing得到评价集合。<br><strong>评价指标:</strong>MAP,NDCG@5,NDCG@10和MRR。</p><h2 id="启发式baseline"><a href="#启发式baseline" class="headerlink" title="启发式baseline"></a>启发式baseline</h2><p>之前的工作没有解决这种问题的,因此本文设计了一些baseline:</p><ul><li>Fact informativeness(FI):与检索事实无关</li><li>平均谓语相似度(APS):如果两个事实的谓语相似,那么两个事实可能相关</li><li>平均实体相似度(AES):如果两个事实的实体相似,那么两个事实可能相关<h2 id="实验结果"><a href="#实验结果" class="headerlink" title="实验结果"></a>实验结果</h2>实验的设置为了回答下面四个问题:<br><strong>RQ1</strong>:NFCM和一些启发式baseline在众包数据集上的表现如何</li></ul><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546824807991.png" alt="1546824807991"></p><p>NFCM表现大大超过baseline。这说明本文提出的任务不是很轻易就能够解决的。<br><strong>RQ2</strong>:NFCM和在众包数据集上使用远程监督得到的相关度标记的检索事实上使用打分函数得到的效果相比表现如何?(NFCM和远程监督得到的打分函数DistSup相比)</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546824816782.png" alt="1546824816782"></p><p>NFCM在三个指标上都大大超过了DistSup。学习到的排序函数对该任务是有效的。<br><strong>RQ3</strong>:NFCM能从手工特征和自动学到的特征上受益吗?<br>调整LF(学习到的特征)和HF(手工特征)在验证集上的参数。</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546824825392.png" alt="1546824825392"></p><p>NFCM大大超过HF和LF,意味着结合HF和LF可以获得更相关的结果。未来工作在更复杂的结合HF和LF。</p><p><strong>RQ4</strong>:NFCM的per-relationship表现怎么样?每对关系的实例数量是如何影响那个排名表现的?</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1546824844573.png" alt="1546824844573"></p><p>NFCM表现最好的关系是profession,最差的是awardNominated。awardNominated有很多候选事实,可能是差表现的原因之一。</p><h1 id="工作评价"><a href="#工作评价" class="headerlink" title="工作评价"></a>工作评价</h1><p>本文提出了一个新的任务:知识图谱事实语境化任务,以及提出了一个方法NFCM。NFCM首先通过查看两跳之内的邻居,产生检索事实的候选集合,然后通过监督机器学习排序候选事实。NFCM结合手工特征和深度学习自动学到的特征。使用远程监督来收集训练数据,通过使用和Freebase有大量重叠实体的Wikipedia。<br>实验结果表明:远程监督在这个任务中收集训练数据非常有效,NFCM效果很好,两种特征都对NFCM有重要作用。<br>未来旨在探索更复杂的特征结合方式(更好的模型);探索其他产生训练集的方法,比如新闻文章和点击日志(更多的数据,更好的效果);找到在搜索引擎页面上能够结合和呈现这些排序好的事实的方法(更好的落地)。</p>]]></content>
<summary type="html">
<h1 id="阅读文献来源"><a href="#阅读文献来源" class="headerlink" title="阅读文献来源"></a>阅读文献来源</h1><p><strong>Voskarides N , Meij E , Reinanda R , et al. We
</summary>
<category term="KG" scheme="http://yoursite.com/categories/KG/"/>
<category term="nlp" scheme="http://yoursite.com/categories/KG/nlp/"/>
<category term="事实语境化" scheme="http://yoursite.com/categories/KG/nlp/%E4%BA%8B%E5%AE%9E%E8%AF%AD%E5%A2%83%E5%8C%96/"/>
<category term="自然语言处理" scheme="http://yoursite.com/tags/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86/"/>
<category term="论文阅读" scheme="http://yoursite.com/tags/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB/"/>
<category term="知识图谱" scheme="http://yoursite.com/tags/%E7%9F%A5%E8%AF%86%E5%9B%BE%E8%B0%B1/"/>
<category term="事实语境化" scheme="http://yoursite.com/tags/%E4%BA%8B%E5%AE%9E%E8%AF%AD%E5%A2%83%E5%8C%96/"/>
</entry>
<entry>
<title>论文阅读:Effective Deep Memory Networks for Distant Supervised Relation Extraction</title>
<link href="http://yoursite.com/2019/01/02/2019-01/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB%EF%BC%9AEffective%20Deep%20Memory%20Networks%20for%20Distant%20Supervised%20Relation%20Extraction/"/>
<id>http://yoursite.com/2019/01/02/2019-01/论文阅读:Effective Deep Memory Networks for Distant Supervised Relation Extraction/</id>
<published>2019-01-02T01:17:28.000Z</published>
<updated>2019-01-02T01:18:38.000Z</updated>
<content type="html"><![CDATA[<h1 id="1-阅读文献来源"><a href="#1-阅读文献来源" class="headerlink" title="1. 阅读文献来源"></a>1. 阅读文献来源</h1><p>Feng X, Guo J, Qin B, et al. Effective deep memory networks for distant supervised relation extraction[C]//Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence, IJCAI. 2017: 19-25.</p><p>作者单位来自哈尔滨工业大学</p><h1 id="2-论文解决的科学问题及研究动机"><a href="#2-论文解决的科学问题及研究动机" class="headerlink" title="2. 论文解决的科学问题及研究动机"></a>2. 论文解决的科学问题及研究动机</h1><h2 id="研究内容"><a href="#研究内容" class="headerlink" title="研究内容"></a>研究内容</h2><p>远程监督关系提取(RE)是一种不需要标记训练数据就能从文本中找到新的关系的有效方法。通常可以将其形式化为一个多实例多标签问题。</p><p>该文章介绍了一种新型的用于远距离监督RE的神经方法,并着重介绍了注意机制。</p><p>与基于特征的逻辑回归模型和组合神经模型(如CNN)不同,本文的方法包括两个主要的基于注意力的记忆组件,它们能够显式地捕捉每个上下文单词对实体对(entity pair)表示建模的重要性,以及关系之间的内在依赖关系。</p><p>这种重要程度和依赖关系是通过多个计算层来计算的,每个计算层都是外部存储器上的神经注意模型。</p><p>在真实数据集上的实验表明,本文的方法比各种基线更具有显著的、一致的性能。</p><h2 id="研究动机"><a href="#研究动机" class="headerlink" title="研究动机"></a>研究动机</h2><p>关系提取(RE)的目的是提取实体之间的语义关系。给出一个带注释的头实体$e_h$和尾实体$e_t$的句子$s$,RE的目的是预测$e_h$和$e_t$之间的关系。</p><p>RE是自然语言处理(NLP)中的一项基本任务,是构建结构化知识库的重要组成部分。</p><p>以前的方法包括基于特征的方法[Zhang et al., 2006; Li et al., 2012]和基于神经的方法[Nguyen and Grishman, 2015b],能够基于人类标注提取高质量的关系。然而,注释的高成本通常会在规模和领域上限制现有的已标记的RE数据。</p><p>解决该问题的一个有效解决方案就是<strong>远程监管</strong>。远程监督能通过将关系数据库与文本进行对齐来自动生成训练数据[Mintz et al., 2009]。</p><p>为了方便文本的建模,神经网络在远程监督RE中得到了广泛的探索,并取得了最先进的结果[Zeng et al., 2015; Lin et al., 2016; Jiang et al., 2016]。</p><p>多种神经网络如卷积神经网络(CNN)和递归神经网络(RNN)等被采用来学习每个句子(实例)的表征,然后被用来作为关系分类中对应实体对的表征。</p><p>作者观察到:并不是所有的上下文词都对实体对的关系推断有同样的贡献;不同关系之间存在依赖关系(如蕴涵关系、冲突关系),这是用隐式关系表达推断某些实例的关键线索。</p><p>因此,一个理想的解决方案不仅应该能够显式地捕捉不同上下文单词的重要性,而且应该能够自动地学习关系之间的依赖关系。</p><h1 id="3-所提算法创新的工作"><a href="#3-所提算法创新的工作" class="headerlink" title="3. 所提算法创新的工作"></a>3. 所提算法创新的工作</h1><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545794921586.png" alt="1545794921586"></p><h2 id="单词层记忆网络(Word-Level-Memory-Network)"><a href="#单词层记忆网络(Word-Level-Memory-Network)" class="headerlink" title="单词层记忆网络(Word-Level Memory Network)"></a>单词层记忆网络(Word-Level Memory Network)</h2><p>该层是一个单词层的记忆网络,它学习每个上下文单词相对于特定实体对的重要性/权重。</p><p>先将上下⽂句子编码成向量,比如存在句⼦$s={w_1,…,w_l}$,从中提取出实体对的词后得到<br>$$<br>{w_1,…,w_{e_h-1},w_{e_h+1},…,w_{e_t-1},w_{e_t+1},…,w_l}<br>$$<br>称其为外部记忆单元m。之后对上下⽂进行attention计算并求出相应字符的加权和求出上下文的向量表示。</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545790729160.png" alt="1545790729160"></p><p>如图所示,生成的上下文向量可以再次输入到下一层hop中计算新的attention并⽣成新的上下⽂向量表示,因此可以叠加多层的hop得到最终的基于注意力的上下文向量。</p><p>得到上下文向量后,将其与CNN模型得到的向量拼接在一起,得到关于该实体对的句子表征。</p><p><strong>单词注意力:</strong></p><p>注意机制的基本思想是,在计算上层表示时,对每一个较低的位置赋予一个权重(重要性)(Bahdanauet al.,2015)。直觉告诉我们语境词对句子语义的贡献是不相等的。此外,如果我们关注不同的实体对,单词的重要性应该是不同的。</p><p>我们通过注意力模型计算上层向量可以通过下述加权的方式。</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545809741451.png" alt="1545809741451"></p><p>其中m是外部记忆,α是权重,x是输出向量。</p><p>对于每个m,使用FNN来计算与实体对的语义相似度,评价函数如下:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545809748395.png" alt="1545809748395"></p><p>最后通过softmax来计算得到m最终的重要性分布。</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545809754585.png" alt="1545809754585"></p><h2 id="关系层基于注意力记忆网络(two-layer-relation-level-attention-based-memory-network)"><a href="#关系层基于注意力记忆网络(two-layer-relation-level-attention-based-memory-network)" class="headerlink" title="关系层基于注意力记忆网络(two-layer relation-level attention-based memory network)"></a>关系层基于注意力记忆网络(two-layer relation-level attention-based memory network)</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545808833980.png" alt="1545808833980"></p><p>该层学习关系之间的依赖关系,将上下文向量编码(单词层记忆网络得到的输出)成多种关系向量。</p><p>如上图所示,我们为每对关系构建了一个两层记忆网络。</p><ol><li>第一层:依循[Lin et al., 2016]使用实例级别的注意力去挑选能够表达对应关系的句子。具体:随机选择一个向量作为关系的表征,然后通过注意力层来计算关系和每个句子之间的关联权重。</li><li>第二层:设计一个关系层的注意力模型,来学习关系之间的依赖关系。比如,如果一个人是一个公司的创立者(A,founder,B),那么A有大概率是B的股东(A,major_shareholders,B)。该层的输入是第一层的输出,该层的输出用于多标签关系分类。</li></ol><p><strong>关系注意力:</strong></p><p>探讨每个关系中所有句子的重要性,并学习关系之间的依赖关系。实体对的最终表示将是句子表示的组合。</p><ul><li><p>实例上的选择性注意力</p><p>最终表征取决于所有句子的表征,每个句子具有实体对是否包含关系的信息。因为,最终表征可以被计算为句子表征的加权和:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545810130725.png" alt="1545810130725"></p><p>然后学习$\beta$权重:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545810169928.png" alt="1545810169928"></p><p>其中$z_i$表明输入句子和预测关系之间的匹配度[Lin et al., 2016]:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545810322564.png" alt="1545810322564"></p></li><li><p>关系上的选择性注意力</p><p>为了探索所有关系的依赖,使用选择性注意力来计算每个关系之间的相似度。输入为前者输出:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545810445408.png" alt="1545810445408"></p><p>$\gamma_{ji}$是关系表征$R_j$和$R_i$之间的相似度,计算如下:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545810536552.png" alt="1545810536552"></p><p>其中$h_i$表明$R_j$和$R_i$之间的相似度,计算如下:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545810580889.png" alt="1545810580889"></p></li></ul><h2 id="远程监督关系抽取"><a href="#远程监督关系抽取" class="headerlink" title="远程监督关系抽取"></a>远程监督关系抽取</h2><p>对于每种关系对应的特征向量$R^*_i$,将其输入一个二分类器中通过logistic回归得到其是否存在关系的概率值。</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545810667088.png" alt="1545810667088"></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545810683481.png" alt="1545810683481"></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545810694669.png" alt="1545810694669"></p><h1 id="4-实验"><a href="#4-实验" class="headerlink" title="4. 实验"></a>4. 实验</h1><h2 id="数据集:"><a href="#数据集:" class="headerlink" title="数据集:"></a>数据集:</h2><p>NYT10:[Riedel et al., 2010]</p><p>该数据集是通过对齐Freebase与《纽约时报》(NYT)语料库生成的关系,2005年和2006年的句子用于训练,2007年的句子用于测试。</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545812077634.png" alt="1545812077634"></p><h2 id="对比算法实验"><a href="#对比算法实验" class="headerlink" title="对比算法实验"></a>对比算法实验</h2><ul><li>基于特征的方法:Mintz,Multir,MIML</li><li>基于神经的方法:PCNN,ATT</li></ul><p>结果:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545812150895.png" alt="1545812150895"></p><h2 id="两种记忆网络的影响"><a href="#两种记忆网络的影响" class="headerlink" title="两种记忆网络的影响"></a>两种记忆网络的影响</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545812159417.png" alt="1545812159417"></p><h2 id="Hop数量的影响"><a href="#Hop数量的影响" class="headerlink" title="Hop数量的影响"></a>Hop数量的影响</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545812214181.png" alt="1545812214181"></p><h1 id="5-作者工作评价"><a href="#5-作者工作评价" class="headerlink" title="5. 作者工作评价"></a>5. 作者工作评价</h1><p>本文设计了一种新的神经网络模型,该模型具有两个记忆网络,用于远程监督RE。在第一个词级记忆网络中,本文的模型捕捉上下文词的重要性,并自动对句子的语义表示建模。本文还设计了关系级记忆网络,以捕获关系之间的依赖关系,并结合多实例多标签学习。实验结果表明,与同类方法相比,该方法有明显的改进。</p>]]></content>
<summary type="html">
<h1 id="1-阅读文献来源"><a href="#1-阅读文献来源" class="headerlink" title="1. 阅读文献来源"></a>1. 阅读文献来源</h1><p>Feng X, Guo J, Qin B, et al. Effective deep
</summary>
<category term="nlp" scheme="http://yoursite.com/categories/nlp/"/>
<category term="关系抽取" scheme="http://yoursite.com/categories/nlp/%E5%85%B3%E7%B3%BB%E6%8A%BD%E5%8F%96/"/>
<category term="自然语言处理" scheme="http://yoursite.com/tags/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86/"/>
<category term="论文阅读" scheme="http://yoursite.com/tags/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB/"/>
<category term="关系抽取" scheme="http://yoursite.com/tags/%E5%85%B3%E7%B3%BB%E6%8A%BD%E5%8F%96/"/>
<category term="远程监督" scheme="http://yoursite.com/tags/%E8%BF%9C%E7%A8%8B%E7%9B%91%E7%9D%A3/"/>
</entry>
<entry>
<title>《CS224n: Natural Language Processing with Deep Learning》Assignments3: 理论推导部分</title>
<link href="http://yoursite.com/2018/12/25/2018-12/%E3%80%8ACS224n-Natural-Language-Processing-with-Deep-Learning%E3%80%8BAssignments3-%E7%90%86%E8%AE%BA%E6%8E%A8%E5%AF%BC%E9%83%A8%E5%88%86/"/>
<id>http://yoursite.com/2018/12/25/2018-12/《CS224n-Natural-Language-Processing-with-Deep-Learning》Assignments3-理论推导部分/</id>
<published>2018-12-25T02:49:08.000Z</published>
<updated>2020-03-10T06:34:29.022Z</updated>
<content type="html"><![CDATA[<h1 id="Assignment-3"><a href="#Assignment-3" class="headerlink" title="Assignment #3"></a>Assignment #3</h1><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/blog/%E5%BE%AE%E4%BF%A1%E6%88%AA%E5%9B%BE_20200310143305.png" alt=""></p>]]></content>
<summary type="html">
<h1 id="Assignment-3"><a href="#Assignment-3" class="headerlink" title="Assignment #3"></a>Assignment #3</h1><p><img src="https://hellojet-b
</summary>
<category term="nlp" scheme="http://yoursite.com/categories/nlp/"/>
<category term="CS224n" scheme="http://yoursite.com/tags/CS224n/"/>
<category term="自然语言处理" scheme="http://yoursite.com/tags/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86/"/>
</entry>
<entry>
<title>论文简读:word sense disambiguation:a survey</title>
<link href="http://yoursite.com/2018/12/24/2018-12/%E8%AE%BA%E6%96%87%E7%AE%80%E8%AF%BB%EF%BC%9Aword%20sense%20disambiguation%EF%BC%9Aa%20survey/"/>
<id>http://yoursite.com/2018/12/24/2018-12/论文简读:word sense disambiguation:a survey/</id>
<published>2018-12-24T01:44:09.000Z</published>
<updated>2018-12-24T02:37:12.000Z</updated>
<content type="html"><![CDATA[<p>Pal A R , Saha D . Word sense disambiguation: a survey[J]. 2018.</p><p>更具体的版本可以看这个:</p><p>Navigli R . Word sense disambiguation: A survey[M]. ACM, 2009.</p><h1 id="词义消歧:Word-Sense-Disambiguation-WSD"><a href="#词义消歧:Word-Sense-Disambiguation-WSD" class="headerlink" title="词义消歧:Word Sense Disambiguation (WSD)"></a>词义消歧:Word Sense Disambiguation (WSD)</h1><p>在世界上所有的主要语言中,有很多词在不同的语境中表示不同的意思。</p><p>词义消歧是在特定语境中发现歧义词准确意义的一种技术。</p><p>词义消歧的方法主要分为三类:基于知识的、受监督的和无监督的方法。</p><h1 id="词义消歧的应用"><a href="#词义消歧的应用" class="headerlink" title="词义消歧的应用"></a>词义消歧的应用</h1><ul><li>机器翻译(MT):机器翻译(MT)需要WSD[14-17],因为每一种语言中的词根据它们的上下文都有不同的翻译。例如,在英语句子中,“He got a goal”,“It was his goal in life”——“goal”这个词有不同的含义,这是语言翻译中的一个大问题。</li><li>信息检索(IR):在IR[18-23]系统中,解决查询中的歧义是最关键的问题。例如,查询中的“depression”一词可能具有与疾病、天气系统或经济学不同的含义。因此,在找到一个特定问题的答案之前,找到一个模糊词的确切含义是这方面最重要的问题。</li><li>信息提取(IE)和文本挖掘:WSD在生物信息学研究、命名实体识别系统等不同的研究工作中发挥着重要的信息提取作用。</li></ul><h1 id="词义消歧的方法"><a href="#词义消歧的方法" class="headerlink" title="词义消歧的方法*"></a>词义消歧的方法*</h1><h2 id="基于知识的WSD"><a href="#基于知识的WSD" class="headerlink" title="基于知识的WSD"></a>基于知识的WSD</h2><p>基于机器可读词典或词义库、词典等不同知识来源的基于知识的方法。Wordnet (Miller 1995)是本研究领域使用最多的机器可读词典。一般采用四种主要的基于知识的方法。</p><ul><li><p>LESK算法</p><p>第一个基于机器可读字典的词义消歧算法,取决于词典对一个句子中单词定义的重叠。</p><p>从句子中提取短语->从在线词典中收集信息(该词的不同意义和短语中其他有意义的词)->比较两者->最大重叠表示该歧义词的在此处的意义</p></li><li><p>语义相似度</p></li><li><p>选择偏好</p><p>找到词类之间可能的关系,使用知识库表示共同的词义。</p></li><li><p>启发式算法</p><p>三种启发式算法作为评价WSA系统的baseline:</p><p> 1) Most Frequent Sense,</p><p> 2) One Sense per Discourse and</p><p> 3) One Sense per Collocation</p></li></ul><h2 id="受监督的WSD"><a href="#受监督的WSD" class="headerlink" title="受监督的WSD"></a>受监督的WSD</h2><p>手工创建标注数据,通过分类器学习训练集。</p><ul><li><p>决策表</p><p>决策表[33-35]是一组“if-then-else”规则。在决策表中使用训练集来归纳给定单词的特征集。</p></li><li><p>决策树</p><p>决策树[36-38]用于表示树结构中递归划分训练数据集的分类规则。决策树的内部节点表示将应用于某个特征值的测试,每个分支表示测试的输出。叶节点表示单词的含义(如果可能的话)。</p></li><li><p>朴素贝叶斯</p><p>朴素贝叶斯分类器[39-41]是一种基于贝叶斯定理的概率分类器。</p></li><li><p>神经网络</p><p>在基于神经网络的计算模型[42- 45,64]中,人工神经元采用连接主义方法进行数据处理。输入是特征对,目标是将训练上下文划分为非重叠集合。接下来,为了产生更大的激活(目标函数),逐渐调整这些新形成的对和连接权重。</p></li><li><p>基于范例或基于实例的学习</p><p>该监督算法通过实例建立分类模型[40,46]。该模型将实例存储为特征空间中的点,并考虑新的实例进行分类。</p></li><li><p>支持向量机</p><p>基于支持向量机的算法[47-49]使用了结构风险最小化理论。这种方法的目的是用最大边距来区分正例子和负例子,边距是超平面到最近的正例子和负例子的距离。最接近超平面的正负例子称为支持向量。</p></li><li><p>集成方法</p><ul><li><p>多数投票</p></li><li><p>概率混合</p><p>该策略首先采用一阶分类器对目标词的意义进行置信度评价,然后进行归一化处理。结果得到了词义的概率分布。接下来,将这些概率相加,并将得分最高的词义视为所需词义。</p></li><li><p>基于排名的组合</p></li><li><p>AdaBoost</p><p>AdaBoost[51,52]是一种利用多个弱分类器的线性组合来创建强分类器的方法。该方法从以前的分类器中找到分类错误的实例,以便可以用于以后的分类器。从加权训练集中学习分类器,一开始所有的权重都是相等的。在每个步骤中,它对每个分类器执行特定的迭代。在每次迭代中,不正确的分类器的权重都会增加,以便后续的分类器可以关注那些不正确的示例。</p></li></ul></li></ul><h2 id="非监督的WSD"><a href="#非监督的WSD" class="headerlink" title="非监督的WSD"></a>非监督的WSD</h2><p>不依赖于外部知识来源或词义清单、机器可读的字典或标注好的数据集。</p><ul><li><p>上下文聚类</p><p>上下文聚类方法[56,57]是一种基于聚类技术的方法,在聚类技术中,首先创建上下文向量,然后将它们分组成簇,以识别单词的含义。</p></li><li><p>词聚类</p><p>这种技术在消歧词义方面类似于上下文聚类,但它将语义相同的词聚类。</p></li><li><p>共现图</p><p>该方法创建顶点V和边E的共现图,其中V表示文本中的单词,如果单词按照同一段落或文本中的语法在关系中共现,则添加E。对于给定的目标字,首先创建图形,并创建图形的邻接矩阵。然后,应用马尔科夫聚类方法来进行词义消歧。</p></li><li><p>基于生成树的方法</p></li></ul><h1 id="最新表现(2015)"><a href="#最新表现(2015)" class="headerlink" title="最新表现(2015)*"></a>最新表现(2015)*</h1><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545618622138.png" alt="1545618622138"></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545618662407.png" alt="1545618662407"></p>]]></content>
<summary type="html">
<p>Pal A R , Saha D . Word sense disambiguation: a survey[J]. 2018.</p>
<p>更具体的版本可以看这个:</p>
<p>Navigli R . Word sense disambiguation: A surv
</summary>
<category term="nlp" scheme="http://yoursite.com/categories/nlp/"/>
<category term="自然语言处理" scheme="http://yoursite.com/tags/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86/"/>
<category term="词义消歧" scheme="http://yoursite.com/tags/%E8%AF%8D%E4%B9%89%E6%B6%88%E6%AD%A7/"/>
</entry>
<entry>
<title>论文阅读:Linear Algebraic Structure of Word Senses, with Applications to Polysemy</title>
<link href="http://yoursite.com/2018/12/19/2018-12/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB%EF%BC%9ALinear%20Algebraic%20Structure%20of%20Word%20Senses,%20with%20Applications%20to%20Polysemy/"/>
<id>http://yoursite.com/2018/12/19/2018-12/论文阅读:Linear Algebraic Structure of Word Senses, with Applications to Polysemy/</id>
<published>2018-12-19T14:23:00.000Z</published>
<updated>2018-12-19T14:23:28.000Z</updated>
<content type="html"><![CDATA[<h1 id="1-阅读文献来源"><a href="#1-阅读文献来源" class="headerlink" title="1. 阅读文献来源"></a>1. 阅读文献来源</h1><p>Arora S, Li Y, Liang Y, et al. Linear algebraic structure of word senses, with applications to polysemy[J]. Transactions of the Association of Computational Linguistics, 2018, 6: 483-495.</p><p>Sanjeev Arora(大牛):Professor of Computer Science,Princeton University,theoretical machine learningtheoretical computer science</p><p>Yingyu Liang: University of Wisconsin-Madison,machine learning</p><h1 id="2-论文解决的科学问题及研究动机"><a href="#2-论文解决的科学问题及研究动机" class="headerlink" title="2. 论文解决的科学问题及研究动机"></a>2. 论文解决的科学问题及研究动机</h1><p>Firth’s hypothesis:一个单词的意思可以通过周围词的分布得到(Firth,1957)。所以现在的词嵌入通过一个实值向量表示一个单词的意思。</p><p>比较经典的模型有(Turney et al., 2010):词的共现矩阵统计、神经网络模型(word2vec),使用非凸优化(Mikolov et al., 2013a;b)。</p><p><strong>而问题在于</strong>当一词多义的情况出现,一个词嵌入所表示的意义是不明确的。</p><p><strong>现行的解决思路:</strong></p><ul><li>通过内积来提取隐藏信息,效果不好</li><li>线性叠加,通过简单稀疏编码恢复</li></ul><p><strong>现行的解决方案(Word Sense Induction):</strong></p><ul><li>通过Yarowsky (1995)中的几种范例方法来自动学习语义</li><li>通过聚类邻居词来识别多义</li><li>通过将嵌入扩张为更复杂的表示,而不是单个向量,来捕捉单词的含义(Mruphy et al., 2012; Huang et al., 2012),但是在缺少WordNets的语言上没办法使用</li></ul><p>本文旨在提出一种从词嵌入中提取出不同意义,用来解决一词多义问题的方法。</p><p>通过本文算法可以进一步解决WSD(word sense disambiguation 语义消歧)问题,为其创造标注语料库或者WordNet。</p><h1 id="3-所提算法创新的工作"><a href="#3-所提算法创新的工作" class="headerlink" title="3. 所提算法创新的工作"></a>3. 所提算法创新的工作</h1><ul><li><p>本文使用语料库仅仅是为了生成词向量,而基于图的聚类方法在语料库上进行work,速度非常慢。</p></li><li><p>本文算法恢复得到的不同语义是通过话语原语相互联系的。</p></li><li><p>本文算法完全非监督,不需要大量标注集</p></li><li><p>使用了稀疏编码,曾经没有出现在解决一词多义词嵌入问题中</p></li><li><strong>通过话语原语(discourse atom)提取语义:</strong></li></ul><p>先说语义的线性结构,“tie”具有很多意思,其词嵌入应该约等于它的意思的加权和。(这个在作者16年工作中句子向量也提到过)。当然作者是做了一些实验发现这个的:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545224903660.png" alt="1545224903660"></p><p>这个实验通过合并两个单词创建一个多义词:删除这两个词并替换成一个词,进而计算该新词的词嵌入,计算方式和之前计算两个词的方法相同。改变两个词的频率,做大量实验,结果发现新词的向量总是接近两个词的张量子空间。</p><p>那么如何从词嵌入中提取不同的语义信息呢?</p><p>上述实验表明:<br>$$<br>v_{tie} = \alpha_1v_{tie1}+\alpha_2v_{tie2}+\alpha_3v_{tie3}+…<br>$$<br>但是这种组合是无穷的,我们还需要其他的信息帮助我们提取语义。</p><p><strong>借助不同词的语义关联</strong></p><p>比如,“tie”的“article of clothing”与shoe,jacket等相连。</p><p>为此,需要用到作者16年工作Arora et al. (2016)中的<strong>话语模型随机游走</strong>。</p><p>这个模型建立在(Mnih and Hinton, 2007)的逻辑线性主题模型上,原模型定义了主题c与词w之间的一个分布,而随机游走模型将c视为一个话语(在语料库的这个地方正在谈论什么),通过允许c游走来构建语料库:当走到c时,根据原模型的分布来生成一些词,这些词是与c在余弦上相近的。</p><p>有了以上的基础之后,tie1和tie2等对应于tie周围不同词的分布,也可以叫做不同的话语(话语就是一种词的分布)。比如,遇到“clothing”话语,高概率产生tie1(article of clothing),shoe,jacket等词。</p><p>进一步,<strong>“clothing”话语与shoe,jacket,tie1等有很高的内积。</strong>(这是根据原模型w关于c的分布的公式得到的)</p><p>接下来,就引入一个全局优化,目标是找出所有的话语原语:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545226941682.png" alt="1545226941682"></p><p>系数α非零(叫做硬稀疏约束),加号后面一项是噪声向量。</p><p>A和α都是未知的,所以该问题是非凸的,涉及到稀疏编码,本文使用标准k-SVD算法来解决做个问题。</p><p>这里的A就是话语原语。</p><p><strong>通俗解释:训练可以得到话语原语,通过话语原语可以重现一个单词向量。这些话语原语就是我们讲的一词多义中的多义。而如何解释某个原语意义就看与这个原语关联最近的一些词。</strong></p><h1 id="4-实验"><a href="#4-实验" class="headerlink" title="4. 实验"></a>4. 实验</h1><h2 id="话语原语实验"><a href="#话语原语实验" class="headerlink" title="话语原语实验"></a>话语原语实验</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545210119277.png" alt="1545210119277"></p><p>上图包含了一些话语原语以及他们的近邻词,出现在一个话语中的单词通常彼此相近</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545210249432.png" alt="1545210249432"></p><p>上图是连接到“chair”和“bank”的五个话语原语,每个原语通过六个最近的词来表示。比如上面表中是连接到“chair”的五个原语1187,739,590,1322,1457.</p><p><strong>话语原语的层级结构:</strong></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545210621661.png" alt="1545210621661"></p><p>上图是科学领域使用原语的一个例子,biology和chemistry的线性组合与跨学科biochemistry相近。</p><h2 id="定量测试"><a href="#定量测试" class="headerlink" title="定量测试"></a>定量测试</h2><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545227648755.png" alt="1545227648755"></p><p>m代表正确的含义数和干扰项,所有的算法从中选择k个正确的含义。</p><p>m=20,k=4时,本文算法precision=0.63,recall=0.70。</p><p>在m20时,本文算法与非本语说话者表现相同。</p><h1 id="5-作者工作评价"><a href="#5-作者工作评价" class="headerlink" title="5. 作者工作评价"></a>5. 作者工作评价</h1><p>从(Arora et al . 2016年)获得的词嵌入,还有其他几个方法,已被证明包含这个词的不同意义,通过简单的稀疏编码可提取出。目前似乎名词做得比其他词性更好。本文方法的一个新颖之处在于,词义与2000个话语向量相关联。这使得该方法在NLP其他领域的任务,与WordNets一样有用。这种方法在半自动化模式下更有用,更准确,因为人工更能够识别词义。</p><p>对数可能是本文算法成功的关键,因为对数使得很少出现的词义有一个合理的权重。</p><h1 id="6-自己对该论文的评价"><a href="#6-自己对该论文的评价" class="headerlink" title="6. 自己对该论文的评价"></a>6. 自己对该论文的评价</h1><p>本文通过提出话语原语(discourse atom)的概念来表示一个词向量中包含的各种语义,在数学和实践上都证明了各种方法生成的词向量都近似于该词各种含义的向量线性组合这一点。这对nlp领域的发展具有重大的意义。</p><p>在实体链接任务中可以通过判断一个词的语义来更准确的链接到知识库中,可行性很高,具体来说:</p><p>通过语料库训练每个词的词向量以及话语原语向量,以及词向量和话语原语之间的余弦相似度(判断其含义是否近似),拿到一个mention之后,先判断该词与哪个话语原语有较高的相似度,可以作为一种辅助决策,也可以进一步根据上下文来判断该mention对应的实体。</p>]]></content>
<summary type="html">
<h1 id="1-阅读文献来源"><a href="#1-阅读文献来源" class="headerlink" title="1. 阅读文献来源"></a>1. 阅读文献来源</h1><p>Arora S, Li Y, Liang Y, et al. Linear algebr
</summary>
<category term="nlp" scheme="http://yoursite.com/categories/nlp/"/>
<category term="自然语言处理" scheme="http://yoursite.com/tags/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86/"/>
<category term="论文阅读" scheme="http://yoursite.com/tags/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB/"/>
<category term="词嵌入" scheme="http://yoursite.com/tags/%E8%AF%8D%E5%B5%8C%E5%85%A5/"/>
</entry>
<entry>
<title>论文阅读:A Simple but Tough-to-beat Baseline for Sentence Embeddings</title>
<link href="http://yoursite.com/2018/12/17/2018-12/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB%EF%BC%9AA%20Simple%20but%20Tough-to-beat%20Baseline%20for%20Sentence%20Embeddings/"/>
<id>http://yoursite.com/2018/12/17/2018-12/论文阅读:A Simple but Tough-to-beat Baseline for Sentence Embeddings/</id>
<published>2018-12-17T08:05:00.000Z</published>
<updated>2018-12-17T08:06:17.000Z</updated>
<content type="html"><![CDATA[<h1 id="1-阅读文献来源"><a href="#1-阅读文献来源" class="headerlink" title="1. 阅读文献来源"></a>1. 阅读文献来源</h1><p>Arora S, Liang Y, Ma T. A simple but tough-to-beat baseline for sentence embeddings[J]. 2016.</p><p>Sanjeev Arora:普林斯顿大学教授,研究领域是理论机器学习和理论计算机科学</p><p>Yingyu Liang:威斯康星大学</p><p><a href="https://github.com/PrincetonML/SIF" target="_blank" rel="noopener">源代码</a></p><h1 id="2-论文研究动机"><a href="#2-论文研究动机" class="headerlink" title="2. 论文研究动机"></a>2. 论文研究动机</h1><p>神经网络在计算词嵌入方面的成功也推动了研究者们探索生成句子或段落的语义嵌入的方法。</p><p>词嵌入作为NLP和IR中的基础构建块,捕捉词之间的相似度(Bengio et al., 2003; Collobert & Weston, 2008; Mikolov et al., 2013a; Pennington et al., 2014)。</p><p>最近的工作尝试通过计算词嵌入来捕捉词序列(如短语,句子,段落等)的语义,这些方法从简单的词向量叠加到复杂的CNN,RNN(Iyyer et al., 2015; Le & Mikolov, 2014; Kiros et al., 2015; Socher et al., 2011; Blunsom et al., 2014; Tai et al., 2015; Wang et al., 2016)</p><p>(Wieting et al., 2016)从标准词嵌入入手,在数据集(PPDB)的监督下对标准词嵌入进行修改,通过训练一个简单的词平均模型构建句子嵌入。然而,来自数据集的监督似乎至关重要,因为他们报告说,初始词嵌入的简单平均值并不能很好地工作。</p><p>本文在(Wieting et al., 2016)基础上进一步提出自己的工作。</p><h2 id="相关工作"><a href="#相关工作" class="headerlink" title="相关工作"></a>相关工作</h2><p><strong>词嵌入</strong></p><p>词嵌入将词表示为低维空间中的连续向量,捕捉词的词汇和语义特性。它们可以从文本的神经网络模型的内部表示得到(Bengio et al., 2003; Collobert & Weston, 2008; Mikolov et al., 2013a)或通过共现统计学的低秩近似(Deerwester et al., 1990; Pennington et al., 2014)。这两种方法是密切相关的(Levy & Goldberg, 2014; Hashimoto et al., 2016; Arora et al., 2016)。</p><p><strong>短语/句子/段落嵌入</strong></p><p>以往的研究都是通过对向量和矩阵的运算来组合词嵌入来计算短语或句子嵌入(Mitchell & Lapata, 2008; 2010; Blacoe & Lapata, 2012)。其中coordinate-wise multiplication表现得很好。非加权平均对短语的表示方面做得很好(Mikolov et al., 2013a)。</p><p>另一种方法是在解析树上定义的递归神经网络(RNNs),监督学习(Socher et al., 2011) 或者非监督 (Socher et al., 2014)。简单的RNNs可以看作是解析树被简单的线性链替换的特殊情况。</p><p>(Mikolov et al., 2013b):Skip-gram模型被扩展为合并序列的潜在向量,或将序列视为一个基础单元。</p><p>(Le & Mikolov, 2014) :每个段落假设有一个潜在段落向量,影响段落中每个词的分布。</p><p>(Kiros et al., 2015):Skip-thought重构某个句子周围的句子,将隐藏参数视为向量表示。</p><p>(Tai et al., 2015):RNNs使用LSTM捕捉长距离依赖,用于建模句子。</p><p>(Blunsom et al., 2014):CNN,使用动态pooling来处理变长句子,在语义预测和分类任务中表现良好。</p><h1 id="3-算法内容"><a href="#3-算法内容" class="headerlink" title="3. 算法内容"></a>3. 算法内容</h1><p>由词向量到句向量,本文采用了一种简单的无监督方法,简单到只有两步:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545033018436.png" alt="1545033018436"></p><p>第一步,对句子中的每个词向量,乘以一个独特的权值。该权值又a和词频p(w)控制,高频词权值会相对下降。</p><p>第二步,计算语料库所有句向量构成的矩阵的第一个主成分u,让每个句向量减去它在u上的投影(类似PCA)。</p><h1 id="4-实验"><a href="#4-实验" class="headerlink" title="4. 实验"></a>4. 实验</h1><h2 id="文本相似度任务"><a href="#文本相似度任务" class="headerlink" title="文本相似度任务"></a>文本相似度任务</h2><p><strong>数据集:</strong></p><p>22个上文本相似性数据集,包括来自SemEval语义文本相似度(STS)任务的所有数据集(2012-1015)(Agirre et al., 2012; 2013; 2014; Agir- rea et al., 2015)和the SemEval 2015 Twitter task (Xu et al., 2015) and the SemEval 2014 Seman- tic Relatedness task (Marelli et al., 2014).</p><p>任务目标:预测给定两个句子的相似度</p><p>评价标准:Pearson相关系数</p><p><strong>比较算法:</strong></p><ul><li>非监督:ST(Kiros et al., 2015), avg-GloVe(Pennington et al., 2014), tfidf-GloV</li><li>半监督:avg-PSL</li><li>监督:PP, PP-proj., DAN, RNN, iRNN, LSTM (o.g.), LSTM (no)</li></ul><p><strong>结果:</strong></p><ul><li>对比算法结果</li></ul><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545030207766.png" alt="1545030207766"></p><p>非监督中,GloVe+WR比avg-GloVe好10-30%,击败了baseline,比LSTM和RNN效果好,能与DAN一较高下。证明了GloVe+WR这个简单模型能比复杂精调监督模型表现要好。</p><p>半监督中,PSL+WR在四个任务中表现最好,另两个任务中也有较强竞争力,比avg-PSL baseline以及所有使用PSL初始化向量的监督模型表现要好,证明了本文算法的优越性。</p><ul><li>加权参数对性能的影响</li></ul><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545030609779.png" alt="1545030609779"></p><p>(a)表明加权参数a的调整比非加权平均有显著的提升。</p><p>(b)表明性能在四个数据集上表现差不多。</p><p>说明本文算法能够应用于不同类型的,在不同语料库中训练的词向量。跨领域性强。</p><h2 id="监督任务"><a href="#监督任务" class="headerlink" title="监督任务"></a>监督任务</h2><p><strong>数据集:</strong></p><p>the SICK similarity task</p><p>the SICK entailment task</p><p>the Stanford Sentiment Treebank (SST) binary classification task (Socher et al., 2013)</p><p><strong>对比算法:</strong>PP, DAN, RNN, and LSTM</p><p><strong>结果:</strong></p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545031328044.png" alt="1545031328044"></p><p>本文算法在两项任务中表现最好。但是在第三个任务上表现没有RNN和LSTM好,原因:</p><ul><li>词向量,或者说意义分布假说,由于反义词问题,在捕捉语义方面有局限性。解决方法:(Maas et al., 2011)为语义分析学习更好的词嵌入</li><li>“not”等单词在语义分析中可能是很重要的。解决方法:为这个特殊的任务设计权重方案</li></ul><p><strong>句子中单词顺序带来的影响:</strong></p><p>本文方法的一个特别之处在于忽略句子顺序,与RNN和LSTM利用句子顺序信息不同。</p><p>本文方法效果这么好,那么是不是句子顺序在这些benchmark中不重要呢?</p><p>训练测试RNN/LSTM,使用顺序被打乱的句子。结果:</p><p><img src="https://hellojet-blog-1251889946.cos.ap-shanghai.myqcloud.com/1545031347843.png" alt="1545031347843"></p><p>结果下降很明显,所以本文方法在探测语义上比RNN和LSTM要好得多。</p><p>未来一个有趣的方向是结合这些方法的优势。</p><h1 id="5-作者工作评价"><a href="#5-作者工作评价" class="headerlink" title="5. 作者工作评价"></a>5. 作者工作评价</h1><p>该工作提供了一种简单的句子嵌入方法,基于随机游走模型中的话语向量生成文本(Arora et al., 2016)。该方法简单、无监督,但在各种文本相似度任务上性能明显优于基线,甚至优于某些复杂的监督方法,如RNN和LSTM模型。所获得的句子嵌入可以作为下游监督任务的特征,也可以得到比复杂方法更好或更具有可比性的结果。</p><h1 id="6-自己对该论文的评价"><a href="#6-自己对该论文的评价" class="headerlink" title="6. 自己对该论文的评价"></a>6. 自己对该论文的评价</h1><p>本文算法简单,并且高效,可以在大数据集上使用。并且算法采用无监督方式,不需要标注数据,对于不同领域具有很好的迁移性。</p>]]></content>
<summary type="html">
<h1 id="1-阅读文献来源"><a href="#1-阅读文献来源" class="headerlink" title="1. 阅读文献来源"></a>1. 阅读文献来源</h1><p>Arora S, Liang Y, Ma T. A simple but tough-t
</summary>
<category term="nlp" scheme="http://yoursite.com/categories/nlp/"/>
<category term="自然语言处理" scheme="http://yoursite.com/tags/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86/"/>
<category term="句子嵌入" scheme="http://yoursite.com/tags/%E5%8F%A5%E5%AD%90%E5%B5%8C%E5%85%A5/"/>
<category term="论文阅读" scheme="http://yoursite.com/tags/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB/"/>
</entry>
</feed>