喜报:EAGLE-Lab三篇论文被顶级国际会议AAAI录用
近日,EAGLE-Lab博士生张利军、何占盈、徐斌的学术论文被人工智能领域的顶级国际学术会议AAAI 2012录用。AAAI成立于1979年,全称为the Association for the Advancement of Artificial Intelligence。2012年共有1129篇投稿,录用294篇,录用率为26%。
实验室博士生张利军的论文《Efficient Online Learning for Large-scale Sparse Kernel Logistic Regression》被录用为Oral论文。为了降低核逻辑回归的计算复杂度,最直接的解决方案就是将在线学习应用到核逻辑回归模型的优化上。由于逻辑回归目标函数的连续性,这种算法在每一个训练样本到来时都会对当前的核分类器进行更新,导致得到的分类器是稠密的。随着训练样本的增长,模型更新和测试的复杂度都线性增加。为了生成稀疏的核分类器,我们进一步提出了两种保守在线学习算法来优化核逻辑回归。保守在线学习是指仅使用一部分训练数据来更新模型,从而得到稀疏的核分类器。具体而言,在每一个训练样本到来时,引入一个伯努利随机变量来决定是否更新当前模型。通过设定合适的概率分布,论文的算法在遇到难以区分的样本时更新的概率较大,反之更新的概率则较小。理论分析表明,论文得到的稀疏核分类器的泛化能力与稠密分类器的泛化能力类似。大量的实验也表明提出的保守在线学习算法能够在保证分类效果的同时,明显提高了模型的稀疏性。
实验室博士生何占盈的论文《Document Summarization Based on Data Reconstruction》同样被录用为Oral论文。文档摘要在各种实际应用中有着广泛的应用,如新闻提要等。传统的文档摘要算法都是从覆盖文档中心思想和减少摘要冗余度入手的。而论文提出了一种全新的从数据重构的角度考虑文档摘要的框架。我们认为一份合格的包括文档主要内容的摘要,应该可以重构出原文档。所以,我们希望从文档中抽取出一些句子,并且这些句子能够重构出原文档,当重构误差最小时则认为我们选取了最优的句子,并将这些句子作为文档的摘要。论文引入了两种句子重构文档的方法:(1)线性重构,利用所选句子的线性组合来重构原文档;(2)非负线性重构,在线性组合的基础上加了非负约束,使得重构过程只有信息叠加而没有信息消减,从而保证了摘要冗余度的最小化。大量的实验也表明了论文提出的基于数据重构的文档摘要方法能够在保证摘要覆盖文档中心思想的同时,最小化摘要的信息冗余度。
实验室博士生徐斌的论文《A Bregman Divergence Optimization Framework for Ranking on Data Manifold and Its New Extensions》被录用为Poster论文。流形排序算法是一个经典的图排序算法,被广泛应用。它的最大缺点是运行效率较慢,并且对新数据点不友好。论文创新性地从Bregman Divergence的角度重新定义了流形排序的学习目标函数,并证明了与原始定义的等价性。基于该种新的定义形式,我们可以将原始的3次方的算法复杂度降低为2次方,并且对新的数据点更加友好。另外,基于新的定义形式,论文从两种不同的角度改进了流形排序算法,并得到了良好的结果。在两个图像数据集上的基于内容图像检索实验证明论文提出算法的有效性。
这三篇顶级国际会议论文的录用说明实验室在人工智能领域具备了一定的研究基础,进一步展示了实验室在高水平国际会议上发表论文的能力。