您的位置: 专家智库 > >

中国科学院研究生院院长基金(YZJJ200206)

作品数:8 被引量:23H指数:3
相关作者:叶世伟马琳贾文臣罗铁坚宋进亮更多>>
相关机构:中国科学院研究生院中国科学院四川师范大学更多>>
发文基金:中国科学院研究生院院长基金国家自然科学基金更多>>
相关领域:自动化与计算机技术理学更多>>

文献类型

  • 8篇中文期刊文章

领域

  • 7篇自动化与计算...
  • 1篇理学

主题

  • 6篇网络
  • 5篇函数
  • 3篇神经网
  • 3篇神经网络
  • 3篇凸优化
  • 3篇前馈
  • 3篇前馈神经网络
  • 3篇HOPFIE...
  • 3篇HOPFIE...
  • 2篇凸函数
  • 2篇共轭
  • 2篇共轭函数
  • 1篇等式
  • 1篇学习算法
  • 1篇优化算法
  • 1篇前馈网络
  • 1篇人工神经
  • 1篇人工神经网络
  • 1篇自适
  • 1篇自适应

机构

  • 8篇中国科学院研...
  • 2篇四川师范大学
  • 2篇中国科学院
  • 1篇中国地震局
  • 1篇山东铝业股份...

作者

  • 8篇叶世伟
  • 4篇马琳
  • 3篇贾文臣
  • 2篇史忠植
  • 2篇王文杰
  • 2篇宋进亮
  • 2篇郑宏伟
  • 2篇罗铁坚
  • 2篇陈国梁
  • 1篇李玉萍
  • 1篇贾显鹏
  • 1篇纪祥敏
  • 1篇张素庆

传媒

  • 2篇计算机研究与...
  • 2篇计算机工程
  • 2篇计算机仿真
  • 2篇中国科学院研...

年份

  • 1篇2006
  • 3篇2005
  • 3篇2004
  • 1篇2003
8 条 记 录,以下是 1-8
排序方式:
基于凸函数理论的Hopfield网络稳定性分析被引量:1
2006年
讨论连接权值不对称或激活函数非单调的离散时间Hopfield网络稳定性分析。引入新的能量函数,利用凸函数的性质证明随状态的更新网络能量函数单调下降从而得出网络收敛的充分条件。对于激活函数为非单调的连续函数而网络连接权值对称,则当网络连接权值矩阵的最大特征值和神经元激活函数的导数下确界之积大于?1时,网络全并行收敛。对于网络激活函数为单调连续函数,网络连接权值为非对称矩阵时,神经元激活函数导数的最大值和连接权值矩阵的2-范数之积小于1时,网络全并行收敛。
李玉萍张素庆叶世伟
关键词:HOPFIELD网络共轭函数
前馈神经网络的一种快速学习算法
2005年
提出的算法是利用凸函数共轭性质中的Young不等式构造优化目标函数,这个优化目标函数对于权值和隐层输出来说为凸函数,不存在局部最小。首先把隐层输出作为变量进行优化更新,然后快速计算出隐层前后的权值。数值实验表明:此算法简单,收敛速度快,泛化能力强,并大大降低了学习误差。
贾文臣叶世伟
关键词:前馈神经网络YOUNG不等式凸函数快速学习算法
前馈网络凸优化算法的自适应分析及应用被引量:1
2004年
该文利用凸优化理论和约束优化理论为前馈神经网络构造出了一个新的优化目标函数。该目标函数的一个重要特点是:若固定连接权值,它对隐层输出来说为凸的;若固定隐层输出,它对连接权值来说为凸的。对该目标函数进行优化时,把隐层输出也做为被优化变量,交替优化隐层输出和连接权值;之后再增大惩罚因子的值,重复上述步骤,直到惩罚因子足够大为止。用新的目标函数设计的前馈网络凸优化算法,能在很大程度上克服以往算法易于陷入局部最小而使网络训练失败的缺陷。从理论和实践上对新算法进行了深入分析,重点分析了惩罚因子在算法中的重要作用,并通过图像压缩这一实例进行了很好的验证。
贾文臣叶世伟陈国梁贾显鹏
关键词:前馈神经网络
非线性梯度下降算法理论及其对Hopfield网络稳定性的分析被引量:3
2004年
讨论目标函数可分解为凸函数和一个广义可微函数之差的优化问题 对于可微函数利用线性函数进行局部逼近 ,从而求得目标函数的一个凸函数逼近 然后求解凸优化问题得到最优解的一个更好近似 ;重复这个过程直到结束 利用广义梯度和凸函数的性质 ,证明得到的优化算法为全局收敛的下降算法 它所求解的优化问题可以具有光滑或非光滑的目标函数
叶世伟郑宏伟王文杰马琳史忠植
关键词:凸优化非光滑优化函数逼近HOPFIELD网络
Web性能测试与预测被引量:13
2005年
讨论了Web应用的性能测试方法和测试工具,并在一个Web应用的实例中给出了运用这些工具和方法的测试过程,以及对测试结果的分析.设计了一种基于转导推理的预测算法,基于有限的历史测试数据,对系统的性能进行预测,并取得了接近实测的预测效果.还根据测试结果简要分析了对Web应用性能进行优化的一般方法.
马琳罗铁坚宋进亮叶世伟
关键词:WEB应用
前馈神经网络凸优化算法及其仿真应用
2004年
该文利用凸函数共轭性质中的Young不等式构造前馈神经网络优化目标函数。这个优化目标函数若固定权值 ,对隐层输出来说为凸函数 ;若固定隐层输出 ,对权值来说为凸函数。因此 ,此目标函数不存在局部最小。此目标函数的优化速度快 ,大大提高了前馈神经网络的学习效率。仿真试验表明 ,与传统算法如误差反向传播算法或BP算法和含势态因子 (Mo mentumfactor)的BP算法及现有的分层优化算法相比 ,新算法能加快收敛速度 ,并降低学习误差。利用这种快速算法对矿体进行仿真预测 。
贾文臣叶世伟陈国梁纪祥敏
关键词:前馈神经网络凸函数优化算法人工神经网络BP算法
利用多维Neville算法实现基于转导思想的函数估计被引量:1
2005年
根据转导思想的函数估计 ,不用估计函数的模型和参数 ,直接估计函数在给定点的值 ,从根本上区别于传统的函数估计方法 ,但具体的实现算法是一个公开的问题 .讨论使用多维Neville算法实现基于转导思想的函数估计的问题 .利用投影的方法 ,将传统的Neville算法推广到了多维空间 ,在数值计算中引入了核函数的思想 ,从而解决了多维空间的计算问题 ,得到利用多维的Neville算法实现函数估计的方法 .数值试验的结果表明 ,这种方法成功地克服了函数插值的龙格 (Runge)现象 ,有很好的逼近效果 ,并且可以处理多维的函数估计问题 ;同时也给出了对核函数参数进行估计这个难题的一些讨论 .该算法对转导思想的实现提供了一个崭新的途径 .
马琳叶世伟罗铁坚宋进亮
关键词:函数估计核函数
离散时间Hopfield网络的动力系统分析被引量:4
2003年
离散时间的Hopfield网络模型是一个非线性动力系统 对网络的状态变量引入新的能量函数 ,利用凸函数次梯度性质可以得到网络状态能量单调减少的条件 对于神经元的连接权值且激活函数单调非减 (不一定严格单调增加 )的Hopfield网络 ,若神经元激活函数的增益大于权值矩阵的最小特征值 ,则全并行时渐进收敛 ;而当网络串行时 ,只要网络中每个神经元激活函数的增益与该神经元的自反馈连接权值的和大于零即可 同时 ,若神经元激活函数单调 ,网络连接权值对称 ,利用凸函数次梯度的性质 ,证明了离散时间的Hopfield网络模型全并行时收敛到周期不大于
叶世伟郑宏伟王文杰马琳史忠植
关键词:HOPFIELD网络共轭函数
共1页<1>
聚类工具0