تلفن: ۰۴۱۴۲۲۷۳۷۸۱
تلفن: ۰۹۲۱۶۴۲۶۳۸۴

ترجمه مقاله پردازش مشترک پرس و جو در کش برای معماریهای CPU-GPU جفت شده – نشریه ACM

عنوان فارسی: پردازش مشترک پرس و جو در کش برای معماریهای CPU-GPU جفت شده
عنوان انگلیسی: In-Cache Query Co-Processing on Coupled CPU-GPU Architectures
تعداد صفحات مقاله انگلیسی : 12 تعداد صفحات ترجمه فارسی : 22
سال انتشار : 2014 نشریه : ACM
فرمت مقاله انگلیسی : PDF فرمت ترجمه مقاله : ورد تایپ شده
نوع مقاله : ISI پایگاه : اسکوپوس
کد محصول : F1128 رفرنس : دارد ✓
محتوای فایل : zip حجم فایل : 1.64Mb
رشته های مرتبط با این مقاله: مهندسی کامپیوتر
گرایش های مرتبط با این مقاله: معماری سیستم های کامپیوتری
دانشگاه: دانشگاه فناوری نانیانگ
وضعیت ترجمه عناوین تصاویر و جداول: ترجمه شده است ☓
وضعیت ترجمه متون داخل تصاویر و جداول: ترجمه شده است ☓
وضعیت ترجمه منابع داخل متن: درج نشده است ☓
doi یا شناسه دیجیتال: https://doi.org/10.14778/2735496.2735497
ترجمه این مقاله با کیفیت متوسط انجام شده است و چند بخش ترجمه نشده است. بلافاصله پس از خرید، دکمه دانلود ظاهر خواهد شد. ترجمه به ایمیل شما نیز ارسال خواهد گردید.
فهرست مطالب

چکیده

1. مقدمه

2. اصول مقدماتی و پیشینه

1. 2 معماریهای سیستم ناهمگن

2. 2 واسط برنامه نویسی یکپارچه

3. طراحی و پیاده سازی

1. 3 انگیزه ها

2. 3 طراحی و پیاده سازی

1. 2. 3 پیش واکشی

2. 2. 3 فشرده سازی داده ها

3. 2. 3 شکافت وسیله

4. مدل هزینه

1. 4 مدل مجرد (انتزاعی)

7. نتایج

نمونه متن انگلیسی

ABSTRACT

Recently, there have been some emerging processor designs that the CPU and the GPU (Graphics Processing Unit) are integrated in a single chip and share Last Level Cache (LLC). However, the main memory bandwidth of such coupled CPU-GPU architectures can be much lower than that of a discrete GPU. As a result, current GPU query coprocessing paradigms can severely suffer from memory stalls. In this paper, we propose a novel in-cache query co-processing paradigm for main memory On-Line Analytical Processing (OLAP) databases on coupled CPU-GPU architectures. Specifically, we adapt CPU-assisted prefetching to minimize cache misses in GPU query co-processing and CPU-assisted decompression to improve query execution performance. Furthermore, we develop a cost model guided adaptation mechanism for distributing the workload of prefetching, decompression, and query execution between CPU and GPU. We implement a system prototype and evaluate it on two recent AMD APUs A8 and A10. The experimental results show that 1) in-cache query co-processing can effectively improve the performance of the state-of-the-art GPU co-processing paradigm by up to 30% and 33% on A8 and A10, respectively, and 2) our workload distribution adaption mechanism can significantly improve the query performance by up to 36% and 40% on A8 and A10, respectively.

نمونه متن ترجمه

چکیده

اخیراً، تعدادی طرح های پردازنده ظهور کرده است که در آنها CPU و GPU (واحد پردازش گرافیکی) در یک تراشه یکپارچه شده و سطح کش آخرین (LLC) را به اشتراک می گذارند. اما، پهنای باند حافظه اصلی چنین معماری های CPU-GPU جفت شده ای پائینتر ازGPU گسسته است. در نتیجه، پارادایم های (الگو) پردازش مشترک پرس و جوی GPU فعلی، شدیداً از توقف حافظه آسیب می بینند. در این مقاله، پارادایم جدید پردازش مشترک پرس و جو در کش برای پایگاههای داده پردازش تحلیلی آنلاین حافظه اصلی (OLAP) برروی معماریهای CPU-GPU جفت شده را پیشنهاد می کنیم. مخصوصاً، از پیش واکشی به کمک CPU برای به حداقل رساندن از دست رفتن اطلاعات کش در پردازش مشترک پرس و جوی GPU و از غیر فشرده سازی به کمک CPU برای بهبود عملکرد اجرای پرس و جو استفاده می کنیم. به علاوه، یک مکانیسم تطبیق هدایت شده با مدل هزینه برای توزیع حجم کار پیش واکشی، غیر فشرده سازی، و اجرای پرس و جو بین CPU و GPU، توسعه می دهیم. سپس نمونه اولیه سیستم را پیاده و آن را برروی دو AMD APU A8 و A10 جدید ارزیابی می کنیم. نتایج آزمایش نشان می دهد که 1) پردازش مشترک پرس و جو در کش، عملکرد پارادایم پردازش مشترک GPU پیشرفته را برروی A8 و A10 به ترتیب تا 30 و 33 درصد بهبود می بخشد؛ و 2) مکانیسم تطبیق توزیع حجم کار، عملکرد پرس و جو برروی A8 و A10 را به ترتیب 36 و 40 درصد بهبود می بخشد.