ترجمه مقاله نقش ضروری ارتباطات 6G با چشم انداز صنعت 4.0
- مبلغ: ۸۶,۰۰۰ تومان
ترجمه مقاله پایداری توسعه شهری، تعدیل ساختار صنعتی و کارایی کاربری زمین
- مبلغ: ۹۱,۰۰۰ تومان
Parallel computing operates on the principle that large problems can often be divided into smaller ones, which are then solved concurrently to save time (wall clock time) by taking advantage of non-local resources and overcoming memory constraints. The main aim is to form a cluster oriented parallel computing architecture for MPI based applications which demonstrates the performance gain and losses achieved through parallel processing using MPI. This can be realized by implementing the parallel applications like parallel merge sorting, using MPI. The architecture for demonstrating MPI based parallel applications works on the Master-Slave computing paradigm. The master will monitor the progress and be able to report the time taken to solve the problem, taking into account the time spent in breaking the problem into sub-tasks and combining the results along with the communication delays. The slaves are capable of accepting sub problems from the master and finding the solution and sending back to the master. We aim to evaluate these statistics of parallel execution and do comparison with the time taken to solve the same problem in serial execution to demonstrate communication overhead involved in parallel computation. The results with runs on different number of nodes are compared to evaluate the efficiency of MPI based parallel applications. We also show the performance dependency of parallel and serial computation, on RAM.
محاسبه موازی براساس این اصل عمل می کند که مسائل بزرگ اغلب به مسائل کوچکتر تقسیم می شوند و سپس برای صرفه جویی در وقت ( زمان کلاک دیواره) با بهره گیری از منابع غیر محلی و غلبه بر محدودیت های حافظه به طور همزمان حل می شوند. هدف اصلی تشکیل معماری محاسبه موازی خوشه گرا برای برنامه های مبتنی بر MPI می باشد که در مورد سود و زیان عملکرد به واسطه پردازش موازی با استفاده از MPI توضیح می دهد. این مهم با پیاده سازی برنامه های موازی مثل مرتب سازی و ادغام موازی، با استفاده از MPI، تحقق می یابد. معماری تشریح برنامه های موازی مبتنی بر MPI، روی پارادایم محاسبه کار می کند. مستر، پیشرفت کار را مانیتور نموده و توانایی گزارش زمان اتخاذ شده برای حل مسئله با محاسبه زمان صرف شده در تجزیه مسئله به زیروظایف و ترکیب نتیجه به همراه تاخیرهای ارتباطی را دارد. اسلیوها قابلیت پذیرش زیربرنامه ها از مستر و تعریف راه حل و ارسال آن به مستر را دارا هستند. هدف ما ارزیابی آمارهای اجرای موازی و مقایسه با زمان اتخاذ شده برای حل مسئله در اجرای متوالی جهت تشریح سربار ارتباطی درگیر درمحاسبه موازی می باشد. در ادامه برای ارزیابی کارایی برنامه های موازی مبتنی بر MPI، نتایج بدست آمده از دور آزمایشات انجام شده روی گره های مختلف، مقایسه شده است. در اینجا وابستگی عملکرد محاسبه موازی و متوالی روی RAM را نیز نشان می دهیم.