A reliable resilient backpropagation method with gradient ascent

Xugang Wang*, Hongan Wang, Guozhong Dai, Zheng Tang

*この論文の責任著者

研究成果: 書籍の章/レポート/会議録会議への寄与査読

4 被引用数 (Scopus)

抄録

While the Resilient Backpropagation (RPROP) method can be extremely fast in converging to a solution, it suffers from the local minima problem. In this paper, a fast and reliable learning algorithm for multi-layer artificial neural networks is proposed. The learning model has two phases: the RPROP phase and the gradient ascent phase. The repetition of two phases can help the network get out of local minima. The proposed algorithm is tested on some benchmark problems. For all the above problems, the systems are shown to be capable of escaping from the local minima and converge faster than the Backpropagation with momentum algorithm and the simulated annealing techniques.

本文言語英語
ホスト出版物のタイトルComputational Intelligence International Conference on Intelligent Computing, ICIC 2006, Proceedings
出版社Springer Verlag
ページ236-244
ページ数9
ISBN(印刷版)3540372741, 9783540372745
DOI
出版ステータス出版済み - 2006
イベントInternational Conference on Intelligent Computing, ICIC 2006 - Kunming, 中国
継続期間: 2006/08/162006/08/19

出版物シリーズ

名前Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics)
4114 LNAI - II
ISSN(印刷版)0302-9743
ISSN(電子版)1611-3349

学会

学会International Conference on Intelligent Computing, ICIC 2006
国/地域中国
CityKunming
Period2006/08/162006/08/19

ASJC Scopus 主題領域

  • 理論的コンピュータサイエンス
  • コンピュータサイエンス一般

フィンガープリント

「A reliable resilient backpropagation method with gradient ascent」の研究トピックを掘り下げます。これらがまとまってユニークなフィンガープリントを構成します。

引用スタイル