您的位置: 专家智库 > >

李金艳

作品数:6 被引量:11H指数:2
供职机构:华南理工大学电子与信息学院无线电与自动控制研究所更多>>
相关领域:自动化与计算机技术理学更多>>

文献类型

  • 5篇期刊文章
  • 1篇会议论文

领域

  • 4篇自动化与计算...
  • 1篇理学

主题

  • 5篇神经网
  • 5篇神经网络
  • 4篇网络
  • 3篇函数
  • 3篇高阶神经网络
  • 2篇BP算法
  • 1篇定理
  • 1篇定理证明
  • 1篇映射能力
  • 1篇有限集
  • 1篇三层网络
  • 1篇神经网络实现
  • 1篇人工智能
  • 1篇网络实现
  • 1篇连续函数
  • 1篇函数逼近
  • 1篇高阶
  • 1篇NET
  • 1篇NEURAL
  • 1篇PETRI

机构

  • 6篇华南理工大学
  • 2篇香港城市大学

作者

  • 6篇李金艳
  • 5篇余英林
  • 1篇周伟诚
  • 1篇高存臣
  • 1篇高向东
  • 1篇陆以勤

传媒

  • 3篇华南理工大学...
  • 1篇控制理论与应...
  • 1篇广州自动化
  • 1篇第三届中国人...

年份

  • 2篇1997
  • 1篇1996
  • 2篇1995
  • 1篇1994
6 条 记 录,以下是 1-6
排序方式:
HIGHER-ORDER PETRI NET MODELS BASED ON ARTIFICIAL NEURAL NETWORKS被引量:1
1997年
提出了一种新型Petri网———高阶Petri网,这种网可以应用于一阶谓词逻辑中的多项式子句集问题;还研究了目标转移结点T-不变量之间的关系,最后给出了几个例子。
李金艳陆以勤余英林周伟诚
用三层网络逼近任何连续函数
李金艳余英林
关键词:人工智能连续函数神经网络定理证明
二阶神经网络映射能力的研究被引量:6
1996年
本文讨论了二阶神经网络的映射能力.主要内容包括:(1)从理论上严格地证明了二阶神经网络能以任意精度逼近任意连续函数.(2)给出了二阶神经网络的BP算法.(3)模拟实验结果.模拟实验表明:在中间隐层单元数目相同的条件下,二阶神经网络的误差函数比一阶神经网络下降得快;在误差精度相同的条件下。
李金艳余英林
关键词:BP算法映射能力神经网络
二层高阶神经网络对任意布尔函数的实现被引量:1
1995年
本文讨论了二层高阶神经网络的能力问题。主要有三个方面的结果:(1)证明了任意布尔函数可由二层高阶神经网络实现;(2)给出了二层高阶神经网络的BP算法;(3)模拟实验结果。
李金艳余英林
关键词:布尔函数神经网络高阶神经网络BP算法
高阶神经网络与太阳黑子序列被引量:3
1997年
一阶神经网络的函数逼近理论虽已研究得相当深入,但对高阶神经网络在这方面的研究却报道甚少.本文给出了高阶神经网络的逼近理论.其具体内容是:如果网络的激励函数σ∈C~∞不是一个多项式,那么高阶神经网络能够以任意精度逼近任意定义在紧集上的连续函数.根据这个理论,可知稀疏或部分连接的高阶神经网络象全连接的网络一样能够逼近任意连续函数.基于此观点,我们设计了一个稀疏连接的高阶网络和另一个具有相同数目连接权的一阶神经网络,并把它们应用于太阳黑子序列进行逼近和预测.模拟实验结果表明,不论在收敛速度还是在推广能力方面,稀疏连接的高阶神经网络都优于一阶神经网络.
李金艳余英林TommyW.S.Chow
关键词:高阶神经网络
有限集AR_n→有限集BR的高阶神经网络实现
1995年
随着人工神经网络(ANN)理论和技术的不断发展,人们加深了对高阶神经网络映射能力的研究。本文对高阶神经网络实现有限集A(?)R^n→有限集B(?)R的函数逼近问题进行了理论上的研究,得出了高阶神经网络可以实现任何有限集到有限集函数逼近的结论。
高向东李金艳高存臣
关键词:有限集高阶神经网络函数逼近神经网络
共1页<1>
聚类工具0