您的位置: 专家智库 > >

冯昌

作品数:5 被引量:16H指数:2
供职机构:天津大学更多>>
发文基金:国家自然科学基金更多>>
相关领域:自动化与计算机技术更多>>

文献类型

  • 3篇期刊文章
  • 1篇学位论文
  • 1篇专利

领域

  • 4篇自动化与计算...

主题

  • 2篇映射
  • 2篇支持向量
  • 2篇支持向量机
  • 2篇向量
  • 2篇向量机
  • 2篇核方法
  • 2篇傅里叶
  • 1篇学习机
  • 1篇学习算法
  • 1篇映射方法
  • 1篇数据存储
  • 1篇数据存储管理
  • 1篇随机性
  • 1篇特征映射
  • 1篇子采样
  • 1篇显式
  • 1篇线性支持向量...
  • 1篇结点
  • 1篇极限学习机
  • 1篇分布式

机构

  • 5篇天津大学

作者

  • 5篇冯昌
  • 4篇廖士中

传媒

  • 1篇计算机研究与...
  • 1篇计算机科学
  • 1篇计算机科学与...

年份

  • 1篇2019
  • 1篇2018
  • 1篇2016
  • 2篇2015
5 条 记 录,以下是 1-5
排序方式:
大规模核方法的随机假设空间方法被引量:6
2018年
大规模核方法是大规模数据分析与挖掘的基本机器学习方法。核方法在再生核希尔伯特空间中训练线性学习器求解样本空间中的非线性问题,求解时间复杂度关于数据规模是平方级的,预测也依赖于整个训练数据,因而不适用于大规模学习问题。针对这些问题,提出了大规模核方法的有效随机假设空间方法。首先,在关于样本维度对数时间复杂度内,应用循环随机特征映射显式构造假设空间,该空间称之为循环随机假设空间。然后,在循环随机假设空间中应用线性或亚线性学习算法训练线性模型。理论上,给出了循环随机假设空间的一致泛化误差上界及其相对于最优泛化误差的收敛性。实验结果表明,大规模核方法的随机假设空间方法不仅能够显著地提高非线性核方法的训练与预测效率,而且能够保持与非线性核方法相当的预测精度。该方法有理论保障,计算复杂度低,运行效率高,是当前最高效的大规模核方法实现方法。
冯昌廖士中
关键词:核方法
一种极限学习机的元学习方法
本发明公开了一种极限学习机的元学习方法,包括以下步骤:步骤(1)、产生若干原始训练集;步骤(2)、在每一原始训练集上训练出若干Base-ELM;步骤(3)、将若干Base-ELM作为Meta-ELM的隐结点激活函数,训练...
廖士中冯昌
文献传递
一种大规模支持向量机的高效求解算法被引量:1
2015年
现有大规模支持向量机求解算法需要大量的内存资源和训练时间,通常在大集群并行环境下才能实现。提出了一种大规模支持向量机(SVM)的高效求解算法,以在个人PC机求解大规模SVM。它包括3个步骤:首先对大规模样本进行子采样来降低数据规模;然后应用随机傅里叶映射显式地构造随机特征空间,使得可在该随机特征空间中应用线性SVM来一致逼近高斯核SVM;最后给出线性SVM在多核环境下的并行实现方法以进一步提高求解效率。标准数据集的对比实验验证了该求解算法的可行性与高效性。
冯昌李子达廖士中
关键词:子采样
随机傅里叶特征空间中高斯核支持向量机模型选择被引量:10
2016年
模型选择是支持向量机(support vector machines,SVMs)学习的关键问题.标准支持向量机学习本质上是求解一个凸二次优化问题,求解的时间复杂度为数据规模的立方级,而经典的模型选择方法往往需要多次训练支持向量机,这种模型选择方法对于中等规模的支持向量机学习计算代价已较高,更难以扩展到大规模支持向量机学习.基于高斯核函数的随机傅里叶特征近似,提出一种新的、高效的核支持向量机模型选择方法.首先,利用随机傅里叶特征映射,将无限维隐式特征空间嵌入到一个相对低维的显式随机特征空间,并推导在2个不同的特征空间中分别训练支持向量机所得到的模型的误差上界;然后,以模型误差上界为理论保证,提出随机特征空间中核支持向量机的模型选择方法,应用随机特征空间中的线性支持向量机来逼近核支持向量机,计算模型选择准则的近似值,从而评价所对应的核支持向量机的相对优劣;最后,在标杆数据集上验证所提出方法的可行性和高效性.实验结果表明,所提出的模型选择方法与标准交叉验证方法的测试精度基本相当,但可显著地提高核支持向量机模型选择效率.
冯昌廖士中
关键词:支持向量机高斯核
大规模核方法模型选择的随机映射方法
大规模核方法模型选择是大规模核方法理论研究和实际应用的瓶颈和关键。现有大规模核方法模型选择大多在再生核希尔伯特空间(RKHS)中经验地选择核函数并设置模型参数,没有可靠的理论保障,也没有计算有效的模型选择方法。针对这一现...
冯昌
共1页<1>
聚类工具0