تلفن: ۰۴۱۴۲۲۷۳۷۸۱
تلفن: ۰۹۲۱۶۴۲۶۳۸۴

دانلود ترجمه مقاله یادگیری عمیق در شبکه های عصبی – نشریه الزویر

عنوان فارسی: یادگیری عمیق در شبکه های عصبی: کلیات
عنوان انگلیسی: Deep learning in neural networks: An overview
تعداد صفحات مقاله انگلیسی : 33 تعداد صفحات ترجمه فارسی : 63
سال انتشار : 2015 نشریه : الزویر - Elsevier
فرمت مقاله انگلیسی : PDF فرمت ترجمه مقاله : ورد تایپ شده
کد محصول : 4589 رفرنس : دارد
محتوای فایل : zip حجم فایل : 1.72Mb
رشته های مرتبط با این مقاله: مهندسی کامپیوتر
گرایش های مرتبط با این مقاله: مهندسی نرم‌افزار، هوش مصنوعی و معماری سیستم های کامپیوتری
مجله: شبکه های عصبی (Neural Networks)
دانشگاه: دانشگاه لوگانو، سوئیس
کلمات کلیدی: یادگیری عمیق، یادگیری نظارت شده، یادگیری نظارت نشده ( بدون ناظر)، یادگیری تقویتی، محاسبه تکاملی
وضعیت ترجمه عناوین تصاویر و جداول: ترجمه شده است
وضعیت ترجمه متون داخل تصاویر و جداول: ترجمه شده است
وضعیت فرمولها و محاسبات در فایل ترجمه: به صورت عکس، درج شده است
ترجمه این مقاله با کیفیت عالی آماده خرید اینترنتی میباشد. بلافاصله پس از خرید، دکمه دانلود ظاهر خواهد شد. ترجمه به ایمیل شما نیز ارسال خواهد گردید.
فهرست مطالب

چکیده

پیشگفتار

۱ مقدمه ای بر یادگیری عمیق (DL) در شبکه های عصبی (NN)

مخفف ها به ترتیب حروف الفبا

علامتگذاری رویداد گرا برای گسترش فعالسازی در NN

۳ عمیق مسیرهای تخصیص اعتبار (CAP) و مسائل

۴ موضوعات تکراری یادگیری عمیق

۱ ۴ برنامه ریزی پویا برای یادگیری نظارت شده/ تقویتی (SL/RL)

۲ ۴ تسهیل SL و RL با یادگیری نظارت نشده (UL)

۳ ۴ نمایش سلسله مراتبی یادگیری از طریق SL، UL، RL عمیق

۴ ۴ فشرده سازی و طول توصیف حداقل یا کمینه (MDL)

۵ ۴ واحدهای پردازش گرافیکی سریع (GPU) برای DL در NN

۵ NN های نظارت شده با کمک NN های نظارت نشده

۱ ۵ NN های اولیه از دهه ۱۹۴۰ ( و ۱۸۰۰)

۲ ۵ حول و حوش ۱۹۶۰ قشر دیداری برای DL الهام بخش است ( بخش های ۴ ۵، ۱۱ ۵)

۳ ۵ ۱۹۶۵ شبکه های عمیق مبتنی بر روش گروهی داده گردانی

۴ ۵ ۱۹۷۹ پیچش+ تکرار وزن+ زیرنمونه گیری (Neocognitron)

۵ ۵ ۱۹۸۱ ۱۹۶۰ و بعد از آن توسعه پس انتشار (BP) برای NN

۱ ۵ ۵ BP برای NN های پیشرو به اشتراک گذاشتن وزن (FNN) و NNهای بازگشتی (RNN)

الگوریتم ۱ ۵ ۵ یک تکرار از BP برای FNN یا RNNهای به اشتراک گذاشتن وزن

۶ ۵ اواخر ۲۰۰۰ ۱۹۸۰ و بعد از آن بهبودهای متعدد NN

۱ ۶ ۵ ایده هایی برای مقابله با تاخیرهای زمانی طولانی و CAP های عمیق

۲ ۶ ۵ BP بهتر از طریق نزول گرادیان پیشرفته ( مقایسه بخش ۲۴ ۵)

۳ ۶ ۵ جستجوی NN های حل مسئله آسان و ساده (بخش ۲۴ ۵)

۴ ۶ ۵ مزایای بالقوه UL برای SL (مقایسه بخشهای ۷ ۵، ۱۰ ۵، ۱۵ ۵ )

۷ ۵ ۱۹۸۷ UL از طریق سلسله م۸ ۵ ۱۹۸۹ BP برای NN های پیچشی

راتب ( مقایسه بخش ۱۵ ۵)

۹ ۵ ۱۹۹۱ مسئله یادگیری عمیق بنیادی نزول گرادیان

۱۰ ۵ ۱۹۹۱ فشرده سازی تاریخچه مبتنی بر UL از طریق پشته عمیق RNN

۱۱ ۵ ۱۹۹۲ در راستای MPCNN ( مقایسه بخشهای )

۱۲ ۵ ۱۹۹۴ NN های اولیه برنده رقابت

۱۳ ۵ ۱۹۹۵ فراگیر بسیار عمیق بازگشتی نظارت شده

۱۴ ۵ ۲۰۰۳ NN های برنده رقابت/ تعیین کننده رکورد NN های عمیق موفق

۱۵ ۵ ۲۰۰۶/۲۰۰۷ UL برای شبکه های باور عمیق/ پشته های AE تنظیم شده با BP

۱۶ ۵ ۲۰۰۶/ ۲۰۰۷ بهبود یافته برای پشته های

۱۷ ۵ ۲۰۰۹ اولین رقابت های رسمی که RNN ها با MPCNN فاتح آن بودند

۱۸ ۵ روی GPU، رکورد MNIST را در هم می شکند

۲۰ ۵ ۲۰۱۱ بهینه سازی آزاد هسی برای RNN

۲۱ ۵ ۲۰۱۲ اولین رقابت های برنده شده روی ، تشخیص شی و قطعه بندی

۲۲ ۵ ۲۰۱۳ رقابت های بیشتر و رکوردهای محک

۲۳ ۵ تکنیک های در حال حاضر موفق و

۲۴ ۵ ترفندهای اخیر برای بهبود NN های عمیق SL ( مقایسه بخشهای ۲ ۶ ۵ و ۳ ۶ ۵)

۲۵ ۵ نتایج عصب شناسی

۲۶ ۵ DL با نورون های اسپایکی؟

۶ DL در FNN و RNN برای یادگیری تقویتی (RL)

۱ ۶ RL از طریق مدلهای جهانی NN RNN هایی با CAP های عمیق حاصل می کند

۲ ۶ FNN های عمیق برای RL سنتی و فرایند تصمیم گیری مارکو (MDP)

۳ ۶ RL RNN های عمیق برای MDP های قابل مشاهده در حد جزئی (POMDP)

۴ ۶ RL تسهیل شده با UL عمیق در FNN و RNN

۵ ۶ RL سلسله مراتبی عمیق (HRL) و یادگیری زیرهدف با FNN و RNN

۶ ۶ RL عمیق با جستجوی مستقیم NN/ گرادیان سیاست/ تکامل

۷ ۶ RL عمیق با جستجوی غیر مستقیم سیاست/ جستجوی فشرده NN

۸ ۶ RL جهانی

۷ نتیجه گیری و چشم انداز

نمونه متن انگلیسی

abstract

In recent years, deep artificial neural networks (including recurrent ones) have won numerous contests in pattern recognition and machine learning. This historical survey compactly summarizes relevant work, much of it from the previous millennium. Shallow and Deep Learners are distinguished by the depth of their credit assignment paths, which are chains of possibly learnable, causal links between actions and effects. I review deep supervised learning (also recapitulating the history of backpropagation), unsupervised learning, reinforcement learning & evolutionary computation, and indirect search for short programs encoding deep and large networks.

نمونه متن ترجمه

چکیده

درسالهای اخیر، شبکه های عصبی مصنوعی عمیق ( من جمله شبکه های بازگشتی) فاتح رقابت های متعددی در زمینه های تشخیص الگو و یادگیری ماشینی شده اند. این بررسی تاریخی، کارهای مرتبط به این مسئله را به طور خلاصه بیان می کند که بخش عظیمی از آن متعلق به هزاره قبل می باشد. فراگیران عمیق و سطحی (کم عمق) برحسب عمق مسیرهای تخصیص اعتبار از هم متمایز می شوند که درواقع زنجیره هایی از لینک های سببی یادگرفتنی بین اعمال و اثرات می باشند. دراین مقاله یادگیری نظارت شده عمیق ( تاریخچه پس انتشار را نیز مطرح می کنم )، یادگیری نظارت نشده یا بدون ناظر، یادگیری تقویتی و محاسبه تکاملی و همچنین جستجوی غیر مستقیم برای برنامه های کوتاهی را مرور می کنم که شبکه های عمیق و بزرگ را رمزگذاری (کدگذاری) می کنند.