您的位置: 专家智库 > >

西安市科技计划项目(CXY13416)

作品数:4 被引量:34H指数:4
相关作者:苗启广曹莹刘家辰宋建锋高琳更多>>
相关机构:西安电子科技大学更多>>
发文基金:中央高校基本科研业务费专项资金教育部“新世纪优秀人才支持计划”国家自然科学基金更多>>
相关领域:自动化与计算机技术天文地球更多>>

文献类型

  • 4篇中文期刊文章

领域

  • 3篇自动化与计算...
  • 1篇天文地球

主题

  • 1篇代价敏感学习
  • 1篇多样性
  • 1篇学习算法
  • 1篇支持向量
  • 1篇支持向量数据...
  • 1篇三角网
  • 1篇数据描述
  • 1篇数字表面模型
  • 1篇稳定性
  • 1篇向量
  • 1篇聚类
  • 1篇聚类分析
  • 1篇雷达
  • 1篇激光
  • 1篇激光雷达
  • 1篇分类器
  • 1篇贝叶斯
  • 1篇贝叶斯决策
  • 1篇ADABOO...
  • 1篇BOOSTI...

机构

  • 4篇西安电子科技...

作者

  • 4篇苗启广
  • 3篇刘家辰
  • 3篇曹莹
  • 2篇宋建锋
  • 1篇史俊杰
  • 1篇高琳
  • 1篇权义宁
  • 1篇刘天歌

传媒

  • 1篇系统工程与电...
  • 1篇电子与信息学...
  • 1篇软件学报
  • 1篇西安电子科技...

年份

  • 2篇2015
  • 1篇2014
  • 1篇2013
4 条 记 录,以下是 1-4
排序方式:
使用聚类稳定性分析方法增强单类学习算法被引量:9
2015年
针对传统单类学习模型对多模态或多密度分布数据描述能力不足的问题,将集成聚类和聚类稳定性分析引入单类学习.首先将确定聚类簇个数与确定聚类簇分布统一到同一个增强单类学习框架中,之后各聚类簇互为正负类分别建起立多个单类分类模型,最后采用最大融合体积方法融合其决策边界.以经典的支持向量数据描述(SVDD)为例,设计了基于集成聚类的稳定支持向量数据描述算法——ECS-SVDD.在标准UCI数据集和一个真实恶意程序行为数据集上的实验结果表明,ECS-SVDD的性能较单个支持向量数据描述及同类单类学习方法更优.该方法可直接推广到其他最小包含体积集合类型的单类学习算法上,以增强单类学习算法处理多模态和多密度分布数据的能力.
刘家辰苗启广宋建锋曹莹
关键词:聚类分析支持向量数据描述
基于混合多样性生成与修剪的集成单类分类算法被引量:9
2015年
针对传统集成学习方法直接应用于单类分类器效果不理想的问题,该文首先证明了集成学习方法能够提升单类分类器的性能,同时证明了若基分类器集不经选择会导致集成后性能下降;接着指出了经典集成方法直接应用于单类分类器集成时存在基分类器多样性严重不足的问题,并提出了一种能够提高多样性的基单类分类器混合生成策略;最后从集成损失构成的角度拆分集成单类分类器的损失函数,针对性地构造了集成单类分类器修剪策略并提出一种基于混合多样性生成和修剪的单类分类器集成算法,简称为PHD-EOC。在UCI标准数据集和恶意程序行为检测数据集上的实验结果表明,PHD-EOC算法兼顾多样性与单类分类性能,在各种单类分类器评价指标上均较经典集成学习方法有更好的表现,并降低了决策阶段的时间复杂度。
刘家辰苗启广曹莹宋建锋权义宁
一种快速生成DSM的不规则三角网构网新方法被引量:5
2014年
针对目前存在的不规则三角网(triangulation irregular network,TIN)构网效率较低的问题提出了一种新的生成数字表面模型(digital surface model,DSM)的构网方法。首先,通过建立虚拟格网和格网插值,在线性时间内快速建立初始三角网。然后,对初始三角网中局部少量数据优化得到最终的TIN。最后,对数据进行冗余处理和密集处理,构造高分辨率的DSM。实验结果表明,该算法的构网效率高于当前存在的TIN构网方法,对于大数据量的DSM生成具有良好的适用性。
苗启广史俊杰刘天歌师顿
关键词:数字表面模型不规则三角网激光雷达DELAUNAY三角网
具有Fisher一致性的代价敏感Boosting算法被引量:11
2013年
AdaBoost是一种重要的集成学习元算法,算法最核心的特性"Boosting"也是解决代价敏感学习问题的有效方法.然而,各种代价敏感Boosting算法,如AdaCost、AdaC系列算法、CSB系列算法等采用启发式策略,向AdaBoost算法的加权投票因子计算公式或权值调整策略中加入代价参数,迫使算法聚焦于高代价样本.然而,这些启发式策略没有经过理论分析的验证,对原算法的调整破坏了AdaBoost算法最重要的Boosting特性。AdaBoost算法收敛于贝叶斯决策,与之相比,这些代价敏感Boosting并不能收敛到代价敏感的贝叶斯决策.针对这一问题,研究严格遵循Boosting理论框架的代价敏感Boosting算法.首先,对分类间隔的指数损失函数以及Logit损失函数进行代价敏感改造,可以证明新的损失函数具有代价意义下的Fisher一致性,在理想情况下,优化这些损失函数最终收敛到代价敏感贝叶斯决策;其次,在Boosting框架下使用函数空间梯度下降方法优化新的损失函数得到算法AsyB以及AsyBL.二维高斯人工数据上的实验结果表明,与现有代价敏感Boosting算法相比,AsyB和AsyBL算法能够有效逼近代价敏感贝叶斯决策;UCI数据集上的测试结果也进一步验证了AsyB以及AsyBL算法能够生成有更低错分类代价的代价敏感分类器,并且错分类代价随迭代呈指数下降.
曹莹苗启广刘家辰高琳
关键词:代价敏感学习贝叶斯决策ADABOOST
共1页<1>
聚类工具0