ترجمه مقاله یادگیری ماشین کارآمد برای کلان داده ها - نشریه الزویر

ترجمه مقاله یادگیری ماشین کارآمد برای کلان داده ها - نشریه الزویر
قیمت خرید این محصول
۲۹,۰۰۰ تومان
دانلود مقاله انگلیسی
عنوان فارسی
یادگیری ماشین کارآمد برای کلان داده ها: یک مقاله مروری
عنوان انگلیسی
Efficient Machine Learning for Big Data: A Review
صفحات مقاله فارسی
18
صفحات مقاله انگلیسی
7
سال انتشار
2015
نشریه
الزویر - Elsevier
فرمت مقاله انگلیسی
PDF
فرمت ترجمه مقاله
ورد تایپ شده
نوع مقاله
ISI
نوع نگارش
مقاله مروری (Review Article)
پایگاه
اسکوپوس
کد محصول
F1234
وضعیت ترجمه عناوین تصاویر
ترجمه شده است ✓
وضعیت ترجمه متون داخل تصاویر
ترجمه نشده است ☓
وضعیت ترجمه منابع داخل متن
درج نشده است ☓
وضعیت فرمولها و محاسبات در فایل ترجمه
به صورت عکس، درج شده است ✓
رشته های مرتبط با این مقاله
مهندسی فناوری اطلاعات و کامپیوتر
گرایش های مرتبط با این مقاله
مدیریت سیستم های اطلاعات و هوش مصنوعی
مجله
تحقیقات کلان داده - Big Data Research
دانشگاه
دانشگاه خلیفه، ابوظبی، امارات متحده عربی
کلمات کلیدی
کلان داده، رایانش سبز، یادگیری ماشینی کارامد، مدل سازی رایانشی
doi یا شناسه دیجیتال
https://doi.org/10.1016/j.bdr.2015.04.001
۰.۰ (بدون امتیاز)
امتیاز دهید
فهرست مطالب
چکیده
1- مقدمه
2- چالش داده های بزرگ
1-2- جغرافیایی، آب و هوا و محیط زیست
2-2- بیوگرافی، پزشکی و سلامت
3-2- ستاره ها، کهکشان ها و جهان
3- مدل سازی داده ها پایدار و یادگیری کارآمد
1-3- مدل گروهی
2-3- مشکل پیچیدگی مدل
3-3- استراتژی یادگیری محلی
4-3- تقریب نیمه پارامتری
5-3- یادگیری عمیقی
6-3- محاسبات داده های بزرگ
4- نتیجه گیری
نمونه چکیده متن اصلی انگلیسی
Abstract

With the emerging technologies and all associated devices, it is predicted that massive amount of data will be created in the next few years – in fact, as much as 90% of current data were created in the last couple of years – a trend that will continue for the foreseeable future. Sustainable computing studies the process by which computer engineer/scientist designs computers and associated subsystems efficiently and effectively with minimal impact on the environment. However, current intelligent machine-learning systems are performance driven – the focus is on the predictive/classification accuracy, based on known properties learned from the training samples. For instance, most machine-learning-based nonparametric models are known to require high computational cost in order to find the global optima. With the learning task in a large dataset, the number of hidden nodes within the network will therefore increase significantly, which eventually leads to an exponential rise in computational complexity. This paper thus reviews the theoretical and experimental data-modeling literature, in large-scale data-intensive fields, relating to: (1) model efficiency, including computational requirements in learning, and data-intensive areas' structure and design, and introduces (2) new algorithmic approaches with the least memory requirements and processing to minimize computational cost, while maintaining/improving its predictive/classification accuracy and stability.

نمونه چکیده ترجمه متن فارسی
چکیده
با فن آوری های در حال ظهور و تمام دستگاه های مرتبط، پیش بینی می شود که مقدار عظیمی از اطلاعات در چند سال آینده ایجاد خواهد شد - در واقع، 90 درصد از داده های کنونی در چند سال گذشته ایجاد شده است که ادامه این روند برای آینده قابل پیش بینی است . فرایند مطالعات و محاسبات پایدار که در مهندسی کامپیوتر و زیر سیستم های مرتبط کارآمد هستند و حداقل تاثیر را بر روی محیط زیست دارند. با این حال، سیستم های یادگیری ماشینی هوشمند فعلی دارای عملکرد محور می باشند - تمرکز بر دقت پیش بینی / و طبقه بندی، بر اساس خواص شناخته شده از نمونه آموزشی به دست می آید. به عنوان مثال، مدل ناپارامتریک مبتنی بر یادگیری ماشینی نیاز به هزینه های محاسباتی بالا در جهت پیدا کردن OPTIMA جهانی دارد. با این کار یادگیری در یک مجموعه داده های بزرگ، تعداد گره های پنهان در داخل شبکه به طور قابل توجهی افزایش می یابد، که در نهایت به افزایش نمایی در پیچیدگی محاسباتی منجر می شود. بنابراین در این مقاله داده مدل سازی نظری و تجربی ، در زمینه های اطلاعات فشرده در مقیاس بزرگ بررسی شده است ، که مربوط به: (1) بهره وری مدل، از جمله نیازهای محاسباتی در یادگیری، و ساختار اطلاعات فشرده مناطق و طراحی ( 2) روش های الگوریتمی جدید با حداقل حافظه مورد نیاز و پردازش برای به حداقل رساندن هزینه های محاسباتی، در حالی که حفظ / بهبود پیش بینی / دقت طبقه بندی و ثبات آن مد نظر است.

بدون دیدگاه