ترجمه مقاله پردازش مشترک پرس و جو در کش برای معماریهای CPU-GPU جفت شده – نشریه ACM
عنوان فارسی: | پردازش مشترک پرس و جو در کش برای معماریهای CPU-GPU جفت شده |
عنوان انگلیسی: | In-Cache Query Co-Processing on Coupled CPU-GPU Architectures |
تعداد صفحات مقاله انگلیسی : 12 | تعداد صفحات ترجمه فارسی : 22 |
سال انتشار : 2014 | نشریه : ACM |
فرمت مقاله انگلیسی : PDF | فرمت ترجمه مقاله : ورد تایپ شده |
نوع مقاله : ISI | پایگاه : اسکوپوس |
کد محصول : F1128 | رفرنس : دارد ✓ |
محتوای فایل : zip | حجم فایل : 1.64Mb |
رشته های مرتبط با این مقاله: مهندسی کامپیوتر |
گرایش های مرتبط با این مقاله: معماری سیستم های کامپیوتری |
دانشگاه: دانشگاه فناوری نانیانگ |
وضعیت ترجمه عناوین تصاویر و جداول: ترجمه شده است ☓ |
وضعیت ترجمه متون داخل تصاویر و جداول: ترجمه شده است ☓ |
وضعیت ترجمه منابع داخل متن: درج نشده است ☓ |
doi یا شناسه دیجیتال: https://doi.org/10.14778/2735496.2735497 |
چکیده
1. مقدمه
2. اصول مقدماتی و پیشینه
1. 2 معماریهای سیستم ناهمگن
2. 2 واسط برنامه نویسی یکپارچه
3. طراحی و پیاده سازی
1. 3 انگیزه ها
2. 3 طراحی و پیاده سازی
1. 2. 3 پیش واکشی
2. 2. 3 فشرده سازی داده ها
3. 2. 3 شکافت وسیله
4. مدل هزینه
1. 4 مدل مجرد (انتزاعی)
7. نتایج
ABSTRACT
Recently, there have been some emerging processor designs that the CPU and the GPU (Graphics Processing Unit) are integrated in a single chip and share Last Level Cache (LLC). However, the main memory bandwidth of such coupled CPU-GPU architectures can be much lower than that of a discrete GPU. As a result, current GPU query coprocessing paradigms can severely suffer from memory stalls. In this paper, we propose a novel in-cache query co-processing paradigm for main memory On-Line Analytical Processing (OLAP) databases on coupled CPU-GPU architectures. Specifically, we adapt CPU-assisted prefetching to minimize cache misses in GPU query co-processing and CPU-assisted decompression to improve query execution performance. Furthermore, we develop a cost model guided adaptation mechanism for distributing the workload of prefetching, decompression, and query execution between CPU and GPU. We implement a system prototype and evaluate it on two recent AMD APUs A8 and A10. The experimental results show that 1) in-cache query co-processing can effectively improve the performance of the state-of-the-art GPU co-processing paradigm by up to 30% and 33% on A8 and A10, respectively, and 2) our workload distribution adaption mechanism can significantly improve the query performance by up to 36% and 40% on A8 and A10, respectively.
چکیده
اخیراً، تعدادی طرح های پردازنده ظهور کرده است که در آنها CPU و GPU (واحد پردازش گرافیکی) در یک تراشه یکپارچه شده و سطح کش آخرین (LLC) را به اشتراک می گذارند. اما، پهنای باند حافظه اصلی چنین معماری های CPU-GPU جفت شده ای پائینتر ازGPU گسسته است. در نتیجه، پارادایم های (الگو) پردازش مشترک پرس و جوی GPU فعلی، شدیداً از توقف حافظه آسیب می بینند. در این مقاله، پارادایم جدید پردازش مشترک پرس و جو در کش برای پایگاههای داده پردازش تحلیلی آنلاین حافظه اصلی (OLAP) برروی معماریهای CPU-GPU جفت شده را پیشنهاد می کنیم. مخصوصاً، از پیش واکشی به کمک CPU برای به حداقل رساندن از دست رفتن اطلاعات کش در پردازش مشترک پرس و جوی GPU و از غیر فشرده سازی به کمک CPU برای بهبود عملکرد اجرای پرس و جو استفاده می کنیم. به علاوه، یک مکانیسم تطبیق هدایت شده با مدل هزینه برای توزیع حجم کار پیش واکشی، غیر فشرده سازی، و اجرای پرس و جو بین CPU و GPU، توسعه می دهیم. سپس نمونه اولیه سیستم را پیاده و آن را برروی دو AMD APU A8 و A10 جدید ارزیابی می کنیم. نتایج آزمایش نشان می دهد که 1) پردازش مشترک پرس و جو در کش، عملکرد پارادایم پردازش مشترک GPU پیشرفته را برروی A8 و A10 به ترتیب تا 30 و 33 درصد بهبود می بخشد؛ و 2) مکانیسم تطبیق توزیع حجم کار، عملکرد پرس و جو برروی A8 و A10 را به ترتیب 36 و 40 درصد بهبود می بخشد.