您的位置: 专家智库 > >

周谊成

作品数:11 被引量:16H指数:3
供职机构:苏州大学更多>>
发文基金:国家自然科学基金江苏省自然科学基金教育部重点实验室基金更多>>
相关领域:自动化与计算机技术更多>>

文献类型

  • 5篇期刊文章
  • 4篇专利
  • 1篇学位论文
  • 1篇会议论文

领域

  • 6篇自动化与计算...

主题

  • 3篇高斯
  • 2篇迭代
  • 2篇隐马尔可夫模...
  • 2篇智能手机
  • 2篇三维加速度
  • 2篇三维加速度传...
  • 2篇手机
  • 2篇手势
  • 2篇手势识别
  • 2篇速度传感器
  • 2篇随机环境
  • 2篇欧式距离
  • 2篇清洁机器人
  • 2篇路径规划
  • 2篇路径规划方法
  • 2篇马尔可夫
  • 2篇马尔可夫模型
  • 2篇命中
  • 2篇环境模型
  • 2篇混合高斯

机构

  • 11篇苏州大学
  • 1篇南京大学
  • 1篇吉林大学
  • 1篇武汉大学

作者

  • 11篇周谊成
  • 3篇尤树华
  • 3篇章晓芳
  • 3篇刘全
  • 3篇章宗长
  • 3篇王辉
  • 2篇周倩
  • 2篇朱斐
  • 1篇于俊
  • 1篇伏玉琛
  • 1篇谢晓园
  • 1篇王辉
  • 1篇傅启明
  • 1篇陈功

传媒

  • 2篇电脑知识与技...
  • 1篇计算机学报
  • 1篇软件学报
  • 1篇计算机与数字...
  • 1篇第五届江苏计...

年份

  • 2篇2018
  • 4篇2016
  • 1篇2013
  • 3篇2012
  • 1篇2011
11 条 记 录,以下是 1-10
排序方式:
基于三维加速度的连续手势识别
由于基于图像处理的手势识别方法对环境背景要求较高且存在不稳定性问题,文章使用三维加速度传感器的连续数据进行手势识别。三维加速度传感器内置于大部分智能手机中,具有应用方便的特点。实验通过传感器获取加速度信号,经过低通滤波、...
周谊成尤树华王辉
关键词:手势识别三维加速度传感器智能手机隐马尔可夫模型混合高斯模型
一种迭代划分测试方法和系统
本申请提供一种迭代划分测试方法和系统,通过判断待测试用例集合中的待测试用例是否已全部执行完毕,如果是,依据已执行测试用例,对所述输入域D进行划分,将划分得到的2<Sup>m*n</Sup>个子输入域的中心点作为待测试用例...
章晓芳周倩章宗长周谊成
文献传递
面向强化学习的模型学习算法研究
强化学习(Reinforcement Learning,RL)是机器学习方法的重要组成部分。它通过Agent不断地与环境进行交互,学习从环境状态到行为动作的映射,最终目标是最大化从环境获得的累计奖赏。随着强化学习的数学基...
周谊成
基于神经网络的强化学习研究概述被引量:4
2012年
随着强化学习的日益发展,研究越来越深入,将神经网络引入强化学习的研究中已经成为热点课题之一。本文首先介绍强化学习的定义、原理及一般结构,接着简单表述神经网络的基本内容和马尔科夫决策过程模型;然后将强化学习和神经网络融合,重点介绍了两种常见的学习算法,算法都是改进过并且融合了神经网络的特性;最后,简单介绍该方式的强化学习在人工智能,控制系统,游戏以及优化调度等领域的应用情况。
尤树华周谊成王辉
关键词:神经网络
基于三维加速度的连续手势识别被引量:5
2012年
由于基于图像处理的手势识别方法对环境背景要求较高且存在不稳定性问题,文章使用三维加速度传感器的连续数据进行手势识别。三维加速度传感器内置于大部分智能手机中,具有应用方便的特点。实验通过传感器获取加速度信号,经过低通滤波、去重力和特征提取的信号预处理过程后,结合隐马尔可夫模型和混合高斯模型的理论方法,实现手机手势的连续识别,并驱动应用层预先定义的交互命令。
周谊成尤树华王辉
关键词:手势识别三维加速度传感器智能手机隐马尔可夫模型混合高斯模型
一种基于模型学习的清洁机器人最优目标路径规划方法
本发明公开了一种基于模型学习的清洁机器人最优目标路径规划方法,针对目前市场中清洁机器人效率不高的问题,在Dyna?H算法的基础上,提出一种基于自模拟度量和R?MAX的Dyna算法,该路径规划方法可驱动机器人优先处理垃圾可...
刘全周谊成朱斐
文献传递
一种迭代划分测试方法和系统
本申请提供一种迭代划分测试方法和系统,通过判断待测试用例集合中的待测试用例是否已全部执行完毕,如果是,依据已执行测试用例,对所述输入域D进行划分,将划分得到的2<Sup>m*n</Sup>个子输入域的中心点作为待测试用例...
章晓芳周倩章宗长周谊成
文献传递
一种高斯过程的带参近似策略迭代算法被引量:4
2013年
在大规模状态空间或者连续状态空间中,将函数近似与强化学习相结合是当前机器学习领域的一个研究热点;同时,在学习过程中如何平衡探索和利用的问题更是强化学习领域的一个研究难点.针对大规模状态空间或者连续状态空间、确定环境问题中的探索和利用的平衡问题,提出了一种基于高斯过程的近似策略迭代算法.该算法利用高斯过程对带参值函数进行建模,结合生成模型,根据贝叶斯推理,求解值函数的后验分布.在学习过程中,根据值函数的概率分布,求解动作的信息价值增益,结合值函数的期望值,选择相应的动作.在一定程度上,该算法可以解决探索和利用的平衡问题,加快算法收敛.将该算法用于经典的Mountain Car问题,实验结果表明,该算法收敛速度较快,收敛精度较好.
傅启明刘全伏玉琛周谊成于俊
关键词:策略迭代高斯过程贝叶斯推理
基于强化学习TD算法的乒乓游戏击球策略优化
2011年
计算机乒乓游戏是出现在个人计算机上最早的游戏之一,该文利用强化学习中的TD算法,将状态的变化与得分的统计规律统计出来,就是研究在当前状态S下,球拍怎样移动获利最大,让机器击球手快速运动并准确击球。
陈功周谊成王辉
一种基于模型学习的清洁机器人最优目标路径规划方法
本发明公开了一种基于模型学习的清洁机器人最优目标路径规划方法,针对目前市场中清洁机器人效率不高的问题,在Dyna‑H算法的基础上,提出一种基于自模拟度量和R‑MAX的Dyna算法,该路径规划方法可驱动机器人优先处理垃圾可...
刘全周谊成朱斐
文献传递
共2页<12>
聚类工具0