تلفن: ۰۴۱۴۲۲۷۳۷۸۱
تلفن: ۰۹۲۱۶۴۲۶۳۸۴

دانلود ترجمه مقاله محاسبه خوشه برمبنای تبادل پیغام برای ارزیابی عملکرد برنامه های موازی – مجله IEEE

عنوان فارسی: محاسبه خوشه برمبنای MPI برای ارزیابی عملکرد برنامه های موازی
عنوان انگلیسی: MPI Based Cluster Computing for Performance Evaluation of Parallel Applications
تعداد صفحات مقاله انگلیسی : 6 تعداد صفحات ترجمه فارسی : 14
سال انتشار : 2013 نشریه : آی تریپل ای - IEEE
فرمت مقاله انگلیسی : PDF فرمت ترجمه مقاله : ورد تایپ شده
کد محصول : 4586 رفرنس : دارد
محتوای فایل : zip حجم فایل : 797.59Kb
رشته های مرتبط با این مقاله: مهندسی کامپیوتر
گرایش های مرتبط با این مقاله: مهندسی نرم افزار
مجله: مهندسی نرم افزار
دانشگاه: کنفرانس فناوری اطلاعات و ارتباطات (Conference on Information and Communication Technologies)
کلمات کلیدی: گروه علوم کامپیوتر و مهندسی، کارناتاکا، هند
وضعیت ترجمه عناوین تصاویر و جداول: ترجمه شده است
وضعیت ترجمه متون داخل تصاویر و جداول: ترجمه شده است
ترجمه این مقاله با کیفیت عالی آماده خرید اینترنتی میباشد. بلافاصله پس از خرید، دکمه دانلود ظاهر خواهد شد. ترجمه به ایمیل شما نیز ارسال خواهد گردید.
فهرست مطالب

چکیده

۱ مقدمه

A چارچوب های موجود

B چارچوب بکاررفته در سیستم پیشنهادی

۲ کارهای مرتبط

۳ نیازمندیهای سیستم

A نیازمندیهای سخت افزاری

۴ طراحی سیستم

A تجزیه و تحلیل سیستم

B معماری محاسبه موازی بر مبنای خوشه

C پیکره بندی MPI

D پیکره بندی SSH برای ورود از راه دور

۵ پیاده سازی

A طراحی مرتب سازی و ادغام موازی

۶ نتایج و تحلیل

۷ نتایج

۸ کارهای آتی

نمونه متن انگلیسی

Abstract

Parallel computing operates on the principle that large problems can often be divided into smaller ones, which are then solved concurrently to save time (wall clock time) by taking advantage of non-local resources and overcoming memory constraints. The main aim is to form a cluster oriented parallel computing architecture for MPI based applications which demonstrates the performance gain and losses achieved through parallel processing using MPI. This can be realized by implementing the parallel applications like parallel merge sorting, using MPI. The architecture for demonstrating MPI based parallel applications works on the Master-Slave computing paradigm. The master will monitor the progress and be able to report the time taken to solve the problem, taking into account the time spent in breaking the problem into sub-tasks and combining the results along with the communication delays. The slaves are capable of accepting sub problems from the master and finding the solution and sending back to the master. We aim to evaluate these statistics of parallel execution and do comparison with the time taken to solve the same problem in serial execution to demonstrate communication overhead involved in parallel computation. The results with runs on different number of nodes are compared to evaluate the efficiency of MPI based parallel applications. We also show the performance dependency of parallel and serial computation, on RAM.

نمونه متن ترجمه

چکیده

محاسبه موازی براساس این اصل عمل می کند که مسائل بزرگ اغلب به مسائل کوچکتر تقسیم می شوند و سپس برای صرفه جویی در وقت ( زمان کلاک دیواره) با بهره گیری از منابع غیر محلی و غلبه بر محدودیت های حافظه به طور همزمان حل می شوند. هدف اصلی تشکیل معماری محاسبه موازی خوشه گرا برای برنامه های مبتنی بر MPI می باشد که در مورد سود و زیان عملکرد به واسطه پردازش موازی با استفاده از MPI توضیح می دهد. این مهم با پیاده سازی برنامه های موازی مثل مرتب سازی و ادغام موازی، با استفاده از MPI، تحقق می یابد. معماری تشریح برنامه های موازی مبتنی بر MPI، روی پارادایم محاسبه   کار می کند. مستر، پیشرفت کار را مانیتور نموده و توانایی گزارش زمان اتخاذ شده برای حل مسئله با محاسبه زمان صرف شده در تجزیه مسئله به زیروظایف و ترکیب نتیجه به همراه تاخیرهای ارتباطی را دارد. اسلیوها قابلیت پذیرش زیربرنامه ها از مستر و تعریف راه حل و ارسال آن به مستر را دارا هستند. هدف ما ارزیابی آمارهای اجرای موازی و مقایسه با زمان اتخاذ شده برای حل مسئله در اجرای متوالی جهت تشریح سربار ارتباطی درگیر درمحاسبه موازی می باشد. در ادامه برای ارزیابی کارایی برنامه های موازی مبتنی بر MPI، نتایج بدست آمده از دور آزمایشات انجام شده روی گره های مختلف، مقایسه شده است. در اینجا وابستگی عملکرد محاسبه موازی و متوالی روی RAM را نیز نشان می دهیم.