中国人工智能学会通讯——弱监督机器学习的研究进展 1.2 弱监督学习的研究进展

  1. 云栖社区>
  2. CCAI>
  3. 博客>
  4. 正文

中国人工智能学会通讯——弱监督机器学习的研究进展 1.2 弱监督学习的研究进展

行者武松 2017-09-01 11:20:00 浏览828
展开阅读全文

1.2 弱监督学习的研究进展

UU 数据分类

首先看一下UU (Unlabeled, Unlabeled) 分类,U代表无标注的数据。

那么我们是怎样对无标注的数据进行分类?假设我们有两个未标注的数据集,它们唯一的不同在于类先验(class-priors,即所属的类别)的不同。它们的函数分布如图中的左右下角,数量上各占50%左右,其实我们并不需要知道具体的比例。基于这种假设,我们需要训练一个分类器,而基于无标注数据的训练是极具挑战的。

image

怎么训练分类器?

首先来看一下类先验的区别是什么,在正类和负类之间,我们只看p(x)和pˊ(x)之间的差异,这就是我们划分正负类的标准。

假设通过某些技术方法,我们能够获取这些数据的正负类分布的先验信息,正负类的分布比例是对等的,也就是说一半数据是正类,一半是负类。x代表非标注的数据,C是一个常数,由于没有相应的标注数据,所以我们对C的值难以有个合理的估计。尽管如果C没有具体的值,我们不知道哪一侧是正类,哪一侧是负类,但这并不要紧,因为类别之间的差异性往往很明显,最终表现在符号为正或负,所以我们有时可以将常数C忽略掉。我们只看最终符号的正负,这样可以让我们得到最优的分类结果。

image

接下来的做法都是很直观的。因为我们要处理的是一些未标注数据,第一种方法是做核密度的估计,我们对两类数据点对应的p(x)和pˊ(x)进行估计,从而计算它们之间的差值,这样能够很自然地解决分类问题。然而,遗憾的是这种方法虽然简单,但有可能对p(x)–pˊ(x)的差值产生了低估,这是因为对p(x)和pˊ(x)的估计函数过于平滑所导致的。

第二种方法是直接对密度的差值进行估计,利用Kim等人所提出的模型,尽可能把密度差异的估计偏差达到最小,这种方法用一个线性的模型就能够得到相应的解决方案。

第三种方法是对密度差的第一项进行直接的估计,这是最为直接的方法。对于这个问题来说,第三种方法遵循了Vapnik原则。我们要解决的问题不能太过泛化,在这个场景中,我们想要估计密度的差值,这将涉及到非凸优化方面的问题(例如可使用CCCP方法来解)。

image

下面是我们做的一些实验结果,比较的指标是误分类率的类均值。

image

表格的左侧一栏是表示不同的数据集,对比的方法中有聚类的方法,可以看出聚类的方法并不是很有用。表格中间的是一些普通方法,其中第二种是估计p(x)–pˊ(x)的差值,可以看出越靠近左侧的方法取得的效果越好,这是因为对应解决问题的方式更加直接,因此直接的估计密度差值或者是密度差值的符号函数的值会更加有效。

在实际的应用中,我们通常选择左侧的两种方法。

PU 数据分类

下一个话题要谈的是如何处理PU (Positive, Unlabeled)的数据,也就是只有正例数据和未标注的数据。

我们有两类数据样本,一类是属于正类的;另外一类是未标注的。当然未标注的数据里包含了正类和负类两种数据,但是我们并不知道其中哪些是正类,哪些是负类。对应这种数据类型的一个例子是,比如有一些你点击和未点击的网站,对于那些未点击的网站中,你既有未来可能会点击的,也会有你不会点击的(或者有想点击的,但可能由于忙而没有真正点击的),对这些网站点击数据,我们可以应用PU的分类方法。

另外,我相信在社交媒体上面也会有这样的分类场景,判断一个用户是不是你的好友。对于已经认识的朋友,朋友之间有着很好的联系,所以我们能够得到相应的数据样本;然而,对于非朋友关系的用户们,我们并不知道他们相互讨厌对方所以没有成为朋友,还是如果有机会是能够成为朋友的,所以他们之间没有链接并不代表它就是负类的(不能成为朋友)。

image

在这个PU分类中,我们还需要获取一个PN的分类器,因为尽管我们有了正例数据和未标注数据(对应图中的蓝色和黑色的符号数据),我们还是要知道未标注数据(黑色的符号数据)中哪些是负的哪些是正的,这里也将涉及到很多的公式。我们接下来看一下分类器的风险函数。

image

我们用到了损失函数,用了l表示;y用f(x)表示;用R(f)表示风险函数,代表数据分类的风险,可以看到风险函数包括正类数据的分类风险,以及负类数据的分类风险。在今天的演讲当中我们为了把它讲的简单,这里实际是要通过这些数据来进行估计的。

我们现在有正类数据和负类数据的分类风险,已经分成两类。因为我们在PU分类任务中缺少对负类数据的标注,因而不能对负类数据的分类风险进行直接的估计,这也是我们技术上所面临的挑战。然而,这个问题可以很简单的来解决,由于未标注数据是由正类数据和负类数据组成的,所以可以从PU数据中来对负类数据的分类风险进行一个预估。

具体的公式转换如下图所示,它背后的理论是正负数据分类风险满足一定的边界条件,具体的细节在这里就不细说了。这是最优的方法,我们可以通过PU的学习,从PU的数据中得出PN的信息。

image

在左边PU的边界可以比PN的边界要小,我们一开始是用PU的结果而没有PN的,这是我们的起点。但如果满足了这个条件,PU数据的学习要比PN数据的学习更好,但前提是要有大量PU数据;因为如果说有大量的PU数据,左侧边界值就会变的小一些。所以说,PU的学习有时候可以比PN更好一些,这让我们研究出下一种方法,我后面会给大家看另外一种方法。

image

我们会发现,尽管PU方法已经能够取得很好的结果,但是还是存在一些问题。

我们再来看一下之前的PN的风险函数公式,就是基于P数据和N数据的风险对U数据的分类风险进行估计。根据这个定义,N数据的风险是非负类的,但是它是PU的样本,在现实当中我们要对样本进行估计。所以说PU可能是会为负的,因为这个是会有一个负号,通常应该是负号的,但有可能这个差会是负的,特别是对于可扩展性较高的模型来说,比如说像深度网络是会出现这个情况。

image

我们看到,对于非负类的PU分类,先从虚线的蓝线开始看起,是PN的测试数据上的误差结果(蓝色的实线),这表示模型是收敛的。

再看一下红色的虚线,是PN的训练数据上的误差结果,在到某个点时会变成负,这表示模型的训练已经出现了过拟合。因为当在训练数据的误差值变成负了之后,PU测试数据上的误差值开始增长。一个简单的解决过拟合的方法是,限制这些误差值为非负。

image

这样做就可以让我们的数值维持非负性。

但这里的一个问题是在于,这样的模型对于现在的风险预估而言效果还是可以的,但是并没有解决全部的问题。

首先我们先看一下风险的偏差值还是有一致性的,如果你输入的样本太多,它会产生真正的风险,而且它的偏差的下降是指数级的。从应用的角度,我们可以去忽略R(f)的偏执项,这样均方误差其实并不比原来的那个均方误差要大,而R(f)的值也会变得更加的可靠。

image

最后我们看一下实验结果:在线性模型当中,可以在测试数据上收敛,当然现在这样的方法只能用于线性模型。虽然没有办法获得一个更通用的经验,但是我们可以能够对于这样的偏差预估性的方法来进行改良,兴许将来有更好的应用。所以,我们在CIFAR10当中创建了很多的正类的数据,蓝色线代表PN测试。在这里可以看到,如果np=1 000,错误率下降非常快;如果说是对于非负的测试数据,比如说就是这条黄色线和蓝色虚线,它的错误率下降就并不是那么的明显;如果说我们使用一些ReLU方法,PU做的比PN要好的多。

image

接下来做一个简单的总结:PU数据分类是怎么做的?我们做的非常简单,就是把P和U数据,也就是黑色跟蓝色符号数据进行分开(黑色符号数据中其实还含有蓝方符号的数据),最简单的方式就是做偏置。如果使用线性模式能够实现这样的一个二次方差的方法,那么能够保证在P跟U中的损耗是一样的,所以在实验中我们也证明了这样的方法是很有作用的。

image

PNU 数据分类

接下来我们介绍一下PNU (Positive, Negative, Unlabeled)分类,就是正类、负类和无标签数据的分类。PNU分类其实就是一个半监督的学习方法。

现在我们对于PU分类学习有了解决方案,对NU分类学习也有自己的解决方案,所以PU跟NU基本上一样。PN是一个标准的方法,我们也有相应的解决方法,对于PU、PN和NU分类学习中能不能使用半监督的方法,我们是希望能把其中的两者结合起来,就是蓝点或黑框或者红叉和黑框结合起来。

image

根据理论上的风险均值来看,如果在损失风险上PU比NU做的好的话,如果PN放在中间,会不会做的更好?或者另外一个方向,如果NU比PU做的好,那PN就放在第二位;或者说是PU放在第一位,或者PN放在第一位。

最简单就是把PU和NU结合起来,把这两者整合起来。所以原理就是,第一步把PN和PU结合起来,第二步把PN和NU结合起来,这样我们总是能获得最优的方法,这是我们现在做的一个研究工作。

所以,我们的方法就是把它们结合起来进行一个组合,根据我们自己假设性的数据进行切换,如果η是零,那就是变成一个PN分类学习;如果η是负,那就加上PU学习;如果η变成正数,我们就加上NU学习。后续继续选择,基本上在三者之间自由组合,添加一个不同PN、PU和NU的组合来实现自由分类。

image

我们再来看一下泛化误差边界:所有的数据和类型其实已经看到了,最后NU一个错误率这边还是存在的。换句话说,如果我们能够使用未标注的数据,哪怕没有簇假设(一个聚类簇对应一个标注类别)也能够控制泛化误差在一定合理的范围之内。一开始我们无标注的数据只是对它进行一个传播,但是这样的一些无标注数据,更多只是用于这样的损失和评估,而并不适用于正则化。

image

我们现在应该可以做一些类似平滑的正则化,这边其实并不好解释,也就是说可能在无标注数据当中获得标注数据。如果我们和其他的一些标准方法做一个比较,这样的一个PU加NU、PN加PU的方法所取得结果是非常好的。

image

互补型标准类别

最后我们来看一下相互补充型标注类别(Complementary Labels) 的分类方法。

先来看一下类别更多的问题,也就是说现在可能是有1 000多或更多类的分类问题。因为如果在1 000个不同的标签中来选择一个正确的标注类别描述这个类,其实是很耗时的,这时需要互补的标注类别。

我们选择其中的一类,就是错误的一类。这个做起来就简单了,1 000类个候选中,我们只需要把它随机抽选,如果说这个是错的,那么我们就选;如果是正确我们就不选,我们选下一个。

image

换句话说,我们只选择错误的,帮助我们更快地选择最后正确的那一类,这个算法对于我们也非常具有借鉴意义。换句话说,其实就是使用类别的互补性,更容易选择大样本正确的类。我们现在假设是这样的,正常的标签都是来自于p(x, y),但是是互补标签。所以,从这样的假设来看,我们没有办法确定它这样的一个一般性的标签和我们互补标签到底应该是以什么样的方法选择,但是如果说我们定好了这样的一个公式,就可以从互补标签的分类中进行学习。

第一种方法,使用部分的标签来做分类,我们会有这样的一个多候选类,对于每一个互补标签都会设置一个极端的情况,也就是c,所有的c我们都会给一个互补标签,一直把它从c,一直到c–1;第二个办法可能并不是特别正确的办法,我们可以考虑多标签的分类的方法去做。在这个设置当中,每一个样本都会属于多个不同的类;也就是说对于互补类和正类我们都会使用的一个负标签,这个办法可能目前来说并不是特别好,但是有可能做的更好。总的来说,我们希望能够用更简单的办法来解决这样一个问题。

image

接下来可能就有点复杂了,假设我们做c类的分类,把R(f)和gy拿出来,gy就是单个class的分类风险,我们会对这个分类风险进行一个分析,今天我只举其中的一个风险分析的公式。我们把两个分类进行对比,然后去算它的损失;我们会有这样的一个程度对称性的损失,就得出它的风险。

但是从这个定义来看,在我们的设置中没有这个样本量,所以要实现一个点对式对称损失函数(Pairwise Symmetric Loss),就需要一定的特定条件。

我们可以用这样的一个公式表达它的风险函数,重点在于不要取代P,要取代P-,我们要把P-替代掉。所以,只需要把P-进行替代后,就可以对比它的一个损失风险。

但是有这样一个问题,这样的一种对称性损失,它只是用于一些非凸函数。换句话说,从数学层面来说你无法处理凸函数的情况,尽管我们绝大部分研究的场景都是非凸的场景。通过这样的办法,可以预测错误率(从公式中可以看到),也可以看到,标注类别的互补性其实可以帮助我们实现最优的参数收敛率,这就是一个很好的例子。

image

随后我们做了相应的实验,我们所提出的方法在这里,部分标签数据互补数据都在这边用,我们只会使用1/(c–1),如果我们有10类,如果你说不是1类,可能正常样本是第10类。换句话说,最起码有9个互补标签,不是两个、三个、四个,需要c–1、10–1,需要9个互补标签。我们的方法应该算是最好的,就算是和右边最常见、最主流的方法来比,我们做的更加的好,以上就是我们的实验结果。

image

最后做一个总结。我们最关注的是底下的这栏,也就是高精确性,但同时也希望需要的标注成本能够尽量的低。我们在UU、PU、PNU和互补性标签分类上,都希望能够实现高精度低标注成本的目标。

image

网友评论

登录后评论
0/500
评论
行者武松
+ 关注
所属云栖号: CCAI