摘要:
少样本学习的许多元学习方法都依赖于简单的基础学习器,例如最近邻分类器。但是,即使在少样本情况下,经过判别训练的线性判别器可以提供更好的泛化能力。我们建议使用这些判别器作为基础学习器,以学习少样本学习的表示形式,并表明它们在一系列少样本识别benchmarks中提供了特征尺寸和性能之间的更好权衡。我们的目标是学习在线性分类规则下对新类别很好地泛化的特征嵌入。为了有效地解决该目标,我们利用线性分类器的两个属性:凸问题的最优性条件的隐式微分和优化问题的对偶表示。这使我们可以在计算开销适度增加的情况下使用具有更高泛化性的高维嵌入。我们的方法名为MetaOptNet,可在miniImageNet,tieredImageNet,CIFAR-FS和FC100一次性学习基准上获得最先进的性能。代码可以在这里找到