منوی کاربری
  • پشتیبانی: ۴۲۲۷۳۷۸۱ - ۰۴۱
  • سبد خرید

دانلود ترجمه مقاله یادگیری عمیق در شبکه های عصبی - نشریه الزویر

دانلود ترجمه مقاله یادگیری عمیق در شبکه های عصبی - نشریه الزویر
قیمت خرید این محصول
۴۱,۰۰۰ تومان
دانلود رایگان نمونه دانلود مقاله انگلیسی
عنوان فارسی
یادگیری عمیق در شبکه های عصبی: کلیات
عنوان انگلیسی
Deep learning in neural networks: An overview
صفحات مقاله فارسی
63
صفحات مقاله انگلیسی
33
سال انتشار
2015
نشریه
الزویر - Elsevier
فرمت مقاله انگلیسی
PDF
فرمت ترجمه مقاله
ورد تایپ شده
رفرنس
دارد
کد محصول
4589
وضعیت ترجمه عناوین تصاویر و جداول
ترجمه شده است
وضعیت ترجمه متون داخل تصاویر و جداول
ترجمه شده است
وضعیت فرمولها و محاسبات در فایل ترجمه
به صورت عکس، درج شده است
رشته های مرتبط با این مقاله
مهندسی کامپیوتر
گرایش های مرتبط با این مقاله
مهندسی نرم‌افزار، هوش مصنوعی و معماری سیستم های کامپیوتری
مجله
شبکه های عصبی (Neural Networks)
دانشگاه
دانشگاه لوگانو، سوئیس
کلمات کلیدی
یادگیری عمیق، یادگیری نظارت شده، یادگیری نظارت نشده ( بدون ناظر)، یادگیری تقویتی، محاسبه تکاملی
۰.۰ (بدون امتیاز)
امتیاز دهید
فهرست مطالب
چکیده
پیشگفتار
۱ مقدمه ای بر یادگیری عمیق (DL) در شبکه های عصبی (NN)
مخفف ها به ترتیب حروف الفبا
علامتگذاری رویداد گرا برای گسترش فعالسازی در NN
۳ عمیق مسیرهای تخصیص اعتبار (CAP) و مسائل
۴ موضوعات تکراری یادگیری عمیق
۱ ۴ برنامه ریزی پویا برای یادگیری نظارت شده/ تقویتی (SL/RL)
۲ ۴ تسهیل SL و RL با یادگیری نظارت نشده (UL)
۳ ۴ نمایش سلسله مراتبی یادگیری از طریق SL، UL، RL عمیق
۴ ۴ فشرده سازی و طول توصیف حداقل یا کمینه (MDL)
۵ ۴ واحدهای پردازش گرافیکی سریع (GPU) برای DL در NN
۵ NN های نظارت شده با کمک NN های نظارت نشده
۱ ۵ NN های اولیه از دهه ۱۹۴۰ ( و ۱۸۰۰)
۲ ۵ حول و حوش ۱۹۶۰ قشر دیداری برای DL الهام بخش است ( بخش های ۴ ۵، ۱۱ ۵)
۳ ۵ ۱۹۶۵ شبکه های عمیق مبتنی بر روش گروهی داده گردانی
۴ ۵ ۱۹۷۹ پیچش+ تکرار وزن+ زیرنمونه گیری (Neocognitron)
۵ ۵ ۱۹۸۱ ۱۹۶۰ و بعد از آن توسعه پس انتشار (BP) برای NN
۱ ۵ ۵ BP برای NN های پیشرو به اشتراک گذاشتن وزن (FNN) و NNهای بازگشتی (RNN)
الگوریتم ۱ ۵ ۵ یک تکرار از BP برای FNN یا RNNهای به اشتراک گذاشتن وزن
۶ ۵ اواخر ۲۰۰۰ ۱۹۸۰ و بعد از آن بهبودهای متعدد NN
۱ ۶ ۵ ایده هایی برای مقابله با تاخیرهای زمانی طولانی و CAP های عمیق
۲ ۶ ۵ BP بهتر از طریق نزول گرادیان پیشرفته ( مقایسه بخش ۲۴ ۵)
۳ ۶ ۵ جستجوی NN های حل مسئله آسان و ساده (بخش ۲۴ ۵)
۴ ۶ ۵ مزایای بالقوه UL برای SL (مقایسه بخشهای ۷ ۵، ۱۰ ۵، ۱۵ ۵ )
۷ ۵ ۱۹۸۷ UL از طریق سلسله م۸ ۵ ۱۹۸۹ BP برای NN های پیچشی
راتب ( مقایسه بخش ۱۵ ۵)
۹ ۵ ۱۹۹۱ مسئله یادگیری عمیق بنیادی نزول گرادیان
۱۰ ۵ ۱۹۹۱ فشرده سازی تاریخچه مبتنی بر UL از طریق پشته عمیق RNN
۱۱ ۵ ۱۹۹۲ در راستای MPCNN ( مقایسه بخشهای )
۱۲ ۵ ۱۹۹۴ NN های اولیه برنده رقابت
۱۳ ۵ ۱۹۹۵ فراگیر بسیار عمیق بازگشتی نظارت شده
۱۴ ۵ ۲۰۰۳ NN های برنده رقابت/ تعیین کننده رکورد NN های عمیق موفق
۱۵ ۵ ۲۰۰۶/۲۰۰۷ UL برای شبکه های باور عمیق/ پشته های AE تنظیم شده با BP
۱۶ ۵ ۲۰۰۶/ ۲۰۰۷ بهبود یافته برای پشته های
۱۷ ۵ ۲۰۰۹ اولین رقابت های رسمی که RNN ها با MPCNN فاتح آن بودند
۱۸ ۵ روی GPU، رکورد MNIST را در هم می شکند
۲۰ ۵ ۲۰۱۱ بهینه سازی آزاد هسی برای RNN
۲۱ ۵ ۲۰۱۲ اولین رقابت های برنده شده روی ، تشخیص شی و قطعه بندی
۲۲ ۵ ۲۰۱۳ رقابت های بیشتر و رکوردهای محک
۲۳ ۵ تکنیک های در حال حاضر موفق و
۲۴ ۵ ترفندهای اخیر برای بهبود NN های عمیق SL ( مقایسه بخشهای ۲ ۶ ۵ و ۳ ۶ ۵)
۲۵ ۵ نتایج عصب شناسی
۲۶ ۵ DL با نورون های اسپایکی؟
۶ DL در FNN و RNN برای یادگیری تقویتی (RL)
۱ ۶ RL از طریق مدلهای جهانی NN RNN هایی با CAP های عمیق حاصل می کند
۲ ۶ FNN های عمیق برای RL سنتی و فرایند تصمیم گیری مارکو (MDP)
۳ ۶ RL RNN های عمیق برای MDP های قابل مشاهده در حد جزئی (POMDP)
۴ ۶ RL تسهیل شده با UL عمیق در FNN و RNN
۵ ۶ RL سلسله مراتبی عمیق (HRL) و یادگیری زیرهدف با FNN و RNN
۶ ۶ RL عمیق با جستجوی مستقیم NN/ گرادیان سیاست/ تکامل
۷ ۶ RL عمیق با جستجوی غیر مستقیم سیاست/ جستجوی فشرده NN
۸ ۶ RL جهانی
۷ نتیجه گیری و چشم انداز
نمونه چکیده متن اصلی انگلیسی
abstract

In recent years, deep artificial neural networks (including recurrent ones) have won numerous contests in pattern recognition and machine learning. This historical survey compactly summarizes relevant work, much of it from the previous millennium. Shallow and Deep Learners are distinguished by the depth of their credit assignment paths, which are chains of possibly learnable, causal links between actions and effects. I review deep supervised learning (also recapitulating the history of backpropagation), unsupervised learning, reinforcement learning & evolutionary computation, and indirect search for short programs encoding deep and large networks.

نمونه چکیده ترجمه متن فارسی
چکیده
درسالهای اخیر، شبکه های عصبی مصنوعی عمیق ( من جمله شبکه های بازگشتی) فاتح رقابت های متعددی در زمینه های تشخیص الگو و یادگیری ماشینی شده اند. این بررسی تاریخی، کارهای مرتبط به این مسئله را به طور خلاصه بیان می کند که بخش عظیمی از آن متعلق به هزاره قبل می باشد. فراگیران عمیق و سطحی (کم عمق) برحسب عمق مسیرهای تخصیص اعتبار از هم متمایز می شوند که درواقع زنجیره هایی از لینک های سببی یادگرفتنی بین اعمال و اثرات می باشند. دراین مقاله یادگیری نظارت شده عمیق ( تاریخچه پس انتشار را نیز مطرح می کنم )، یادگیری نظارت نشده یا بدون ناظر، یادگیری تقویتی و محاسبه تکاملی و همچنین جستجوی غیر مستقیم برای برنامه های کوتاهی را مرور می کنم که شبکه های عمیق و بزرگ را رمزگذاری (کدگذاری) می کنند.

بدون دیدگاه