您的位置: 专家智库 > >

安徽省自然科学基金(1308085QF121)

作品数:7 被引量:31H指数:3
相关作者:陶卿姜纪远高乾坤储德军章显更多>>
相关机构:中国人民解放军陆军军官学院更多>>
发文基金:国家自然科学基金安徽省自然科学基金更多>>
相关领域:自动化与计算机技术更多>>

文献类型

  • 7篇中文期刊文章

领域

  • 7篇自动化与计算...

主题

  • 5篇正则
  • 4篇正则化
  • 4篇L1正则化
  • 2篇收敛速率
  • 2篇稀疏性
  • 2篇非光滑
  • 1篇对偶
  • 1篇支持向量
  • 1篇支持向量机
  • 1篇凸优化
  • 1篇图像
  • 1篇最优收敛速度
  • 1篇向量
  • 1篇向量机
  • 1篇化境
  • 1篇非光滑优化
  • 1篇非凸
  • 1篇非凸优化
  • 1篇AUC
  • 1篇COMPOS...

机构

  • 7篇中国人民解放...

作者

  • 6篇陶卿
  • 4篇姜纪远
  • 4篇高乾坤
  • 3篇储德军
  • 2篇汪群山
  • 2篇章显
  • 1篇王玉军
  • 1篇朱小辉
  • 1篇夏良

传媒

  • 3篇软件学报
  • 2篇计算机研究与...
  • 1篇电子学报
  • 1篇计算机工程

年份

  • 2篇2015
  • 4篇2014
  • 1篇2013
7 条 记 录,以下是 1-7
排序方式:
一种具有最优收敛速度的正则化境面下降算法被引量:1
2014年
Pegasos算法是求解大规模支持向量机问题的有效方法,在随机梯度下降过程中植入多阶段循环步骤,能使该算法得到最优的收敛速度O(1/T)。COMID算法是由镜面下降算法推广得到的正则化随机形式,可保证正则化项的结构,但对于强凸的优化问题,该算法的收敛速度仅为O(logT/T)。为此,在COMID算法中引入多阶段循环步骤,提出一种求解L1+L2混合正则化项问题的最优正则化镜面下降算法,证明其具有最优的收敛速度O(1/T),以及与COMID算法相同的稀疏性。在大规模数据库上的实验结果验证了理论分析的正确性和所提算法的有效性。
王惊晓高乾坤汪群山
关键词:稀疏性
一种具有O(1/T)收敛速率的稀疏随机算法被引量:3
2014年
随机梯度下降(stochastic gradient descent,SGD)是一种求解大规模优化问题的简单高效方法,近期的研究表明,在求解强凸优化问题时其收敛速率可通过α-suffix平均技巧得到有效的提升.但SGD属于黑箱方法,难以得到正则化优化问题所期望的实际结构效果.另一方面,COMID(composite objective mirror descent)是一种能保证L1正则化结构的稀疏随机算法,但对于强凸优化问题其收敛速率仅为O(logT?T).主要考虑"L1+Hinge"优化问题,首先引入L2强凸项将其转化为强凸优化问题,进而将COMID算法和α-suffix平均技巧结合得到L1MD-α算法.证明了L1MD-α具有O(1?T)的收敛速率,并且获得了比COMID更好的稀疏性.大规模数据库上的实验验证了理论分析的正确性和所提算法的有效性.
姜纪远夏良章显陶卿
关键词:稀疏性L1正则化
一种求解截断L1正则化项问题的坐标下降算法被引量:1
2014年
L1正则化在稀疏学习的研究中起关键作用,使用截断L1正则化项往往可以获得更好的准确率,但却导致了非凸优化问题.目前,主要采用多阶段凸松弛(multi-stage convex relaxation,MSCR)算法进行求解,由于每一阶段都需要求解一个凸优化问题,计算代价较大.为了弥补上述不足,提出了一种求解截断L1正则化项非凸学习问题的坐标下降算法(Non-convex CD).该算法只需在多阶段凸松弛算法的每一阶段执行单步的坐标下降算法,有效降低了计算复杂性.理论分析表明所提出的算法是收敛的.针对Lasso问题,在大规模真实数据库作了实验,实验结果表明,Non-convex CD在取得和MSCR几乎相同准确率的基础上,求解的CPU时间甚至优于求解凸问题的坐标下降方法.为了进一步说明所提算法的性能,进一步研究了Non-convex CD在图像去模糊化中的应用问题.
王玉军高乾坤章显陶卿
关键词:非凸优化
随机COMID的瞬时收敛速率分析被引量:1
2015年
COMID(Composite Objective MIrror Descent)是一种能够保证L1正则化结构的在线算法,其随机收敛速率可由在线算法的regret界直接得到,但其最终解是T次迭代平均的形式,稀疏性很差.瞬时解具有很好的稀疏性,因此分析算法的瞬时收敛速率在随机学习中变得越来越重要.本文讨论正则化非光滑损失的随机优化问题,当正则化项为L1和L1+L2时,分别证明了COMID的瞬时收敛速率.大规模数据库上的实验表明,在保证几乎相同正确率的同时,瞬时解一致地提高了稀疏性,尤其是对稀疏性较差的数据库,稀疏度甚至能够提升4倍以上.
姜纪远陶卿邵言剑汪群山
关键词:非光滑优化L1正则化
稀疏学习优化问题的求解综述被引量:21
2013年
机器学习正面临着数据规模日益扩大的严峻挑战,如何处理大规模甚至超大规模数据问题,是当前统计学习亟需解决的关键性科学问题.大规模机器学习问题的训练样本集合往往具有冗余和稀疏的特点,机器学习优化问题中的正则化项和损失函数也蕴含着特殊的结构含义,直接使用整个目标函数梯度的批处理黑箱方法不仅难以处理大规模问题,而且无法满足机器学习对结构的要求.目前,依靠机器学习自身特点驱动而迅速发展起来的坐标优化、在线和随机优化方法成为解决大规模问题的有效手段.针对L1正则化问题,介绍了这些大规模算法的一些研究进展.
陶卿高乾坤姜纪远储德军
关键词:L1正则化
求解AUC优化问题的对偶坐标下降方法被引量:1
2014年
AUC被广泛作为衡量不平衡数据分类性能的评价标准.与二分类问题不同,AUC问题的损失函数由来自两个不同类别的样本对组成.如何提高其实际收敛速度,是一个值得研究的问题.目前的研究结果表明:使用reservoir sampling技术的在线方法(OAM)表现出很好的AUC性能,但OAM仍存在诸如收敛速度慢、参数选择复杂等缺点.针对AUC优化问题的对偶坐标下降(AUC-DCD)方法进行了系统的研究,给出3种算法,即AUC-SDCD,AUCSDCDperm和AUC-MSGD,其中,AUC-SDCD和AUC-SDCDperm与样本数目有关,AUC-MSGD与样本数目无关.理论分析指出,OAM是AUC-DCD的一种特殊情形.实验结果表明,AUC-DCD在AUC性能和收敛速度两方面均优于OAM.研究结果表明,AUC-DCD是求解AUC优化问题的首选方法.
姜纪远陶卿高乾坤储德军
关键词:AUC支持向量机
一种减小方差求解非光滑问题的随机优化算法被引量:5
2015年
随机优化算法是求解大规模机器学习问题的高效方法之一.随机学习算法使用随机抽取的单个样本梯度代替全梯度,有效节省了计算量,但却会导致较大的方差.近期的研究结果表明:在光滑损失优化问题中使用减小方差策略,能够有效提高随机梯度算法的收敛速率.考虑求解非光滑损失问题随机优化算法COMID(composite objective mirror descent)的方差减小问题.首先证明了COMID具有方差形式的(O1T1/2+σ2/T1/2)收敛速率,其中,T是迭代步数,σ2是方差.该收敛速率保证了减小方差的有效性,进而在COMID中引入减小方差的策略,得到一种随机优化算法α-MDVR(mirror descent with variance reduction).不同于Prox-SVRG(proximal stochastic variance reduced gradient),α-MDVR收敛速率不依赖于样本数目,每次迭代只使用部分样本来修正梯度.对比实验验证了α-MDVR既减小了方差,又节省了计算时间.
朱小辉陶卿邵言剑储德军
关键词:非光滑COMPOSITEMIRROR
共1页<1>
聚类工具0