منوی کاربری
  • پشتیبانی: ۴۲۲۷۳۷۸۱ - ۰۴۱
  • سبد خرید

دانلود رایگان مقاله انگلیسی تجزیه شبکه های عصبی روتور هاپفیلد با استفاده از اعداد پیچیده - IEEE 2017

عنوان فارسی
تجزیه شبکه های عصبی روتور هاپفیلد با استفاده از اعداد پیچیده
عنوان انگلیسی
Decomposition of Rotor Hopfield Neural Networks Using Complex Numbers
صفحات مقاله فارسی
0
صفحات مقاله انگلیسی
5
سال انتشار
2017
نشریه
آی تریپل ای - IEEE
فرمت مقاله انگلیسی
PDF
نوع مقاله
ISI
پایگاه
اسکوپوس
کد محصول
E9512
رشته های مرتبط با این مقاله
مهندسی فناوری اطلاعات و کامپیوتر
گرایش های مرتبط با این مقاله
شبکه های کامپیوتری و هوش مصنوعی
مجله
یافته ها در حوضه شبکه های عصبی و سیستم های یادگیری- IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS
دانشگاه
Mathematical Science Center - University of Yamanashi - Japan
کلمات کلیدی
قانون یادگیری Hebbian، شبکه های عصبی روتور هاپفیلد (RHNN ها)، شبکه های عصبی هاپفیلد متقارن پیچیده (SCHNNs)، برآورد خطی گسترده
doi یا شناسه دیجیتال
https://doi.org/10.1109/TNNLS.2017.2657781
۰.۰ (بدون امتیاز)
امتیاز دهید
چکیده

Abstract


A complex-valued Hopfield neural network (CHNN) is a multistate model of a Hopfield neural network. It has the disadvantage of low noise tolerance. Meanwhile, a symmetric CHNN (SCHNN) is a modification of a CHNN that improves noise tolerance. Furthermore, a rotor Hopfield neural network (RHNN) is an extension of a CHNN. It has twice the storage capacity of CHNNs and SCHNNs, and much better noise tolerance than CHNNs, although it requires twice many connection parameters. In this brief, we investigate the relations between CHNN, SCHNN, and RHNN; an RHNN is uniquely decomposed into a CHNN and SCHNN. In addition, the Hebbian learning rule for RHNNs is decomposed into those for CHNNs and SCHNNs.

نتیجه گیری

CONCLUSION


This brief provides the unique decomposition of an RHNN into a CHNN and an SCHNN. This decomposition provides a new perspective on the RHNN, and could extend the strategy of learning algorithms. For example, it enables the corresponding CHNN and SCHNN to learn independently. The Hebbian learning rule for RHNNs is identical to the combination of those for CHNNs and SCHNNs. It is an important fact that the weighted sum input of the RHNN matches a widely linear estimation. We plan to study new learning algorithms utilizing the decomposition of RHNNs.


بدون دیدگاه