منوی کاربری
  • پشتیبانی: ۴۲۲۷۳۷۸۱ - ۰۴۱
  • سبد خرید

ترجمه مقاله پردازش مشترک پرس و جو در کش برای معماریهای CPU-GPU جفت شده - نشریه ACM

ترجمه مقاله پردازش مشترک پرس و جو در کش برای معماریهای CPU-GPU جفت شده - نشریه ACM
قیمت خرید این محصول
۲۹,۰۰۰ تومان
دانلود مقاله انگلیسی
عنوان فارسی
پردازش مشترک پرس و جو در کش برای معماریهای CPU-GPU جفت شده
عنوان انگلیسی
In-Cache Query Co-Processing on Coupled CPU-GPU Architectures
صفحات مقاله فارسی
22
صفحات مقاله انگلیسی
12
سال انتشار
2014
نشریه
ACM
فرمت مقاله انگلیسی
PDF
فرمت ترجمه مقاله
ورد تایپ شده
نوع مقاله
ISI
رفرنس
دارد ✓
پایگاه
اسکوپوس
کد محصول
F1128
وضعیت ترجمه عناوین تصاویر و جداول
ترجمه شده است ☓
وضعیت ترجمه متون داخل تصاویر و جداول
ترجمه شده است ☓
وضعیت ترجمه منابع داخل متن
درج نشده است ☓
رشته های مرتبط با این مقاله
مهندسی کامپیوتر
گرایش های مرتبط با این مقاله
معماری سیستم های کامپیوتری
دانشگاه
دانشگاه فناوری نانیانگ
doi یا شناسه دیجیتال
https://doi.org/10.14778/2735496.2735497
۰.۰ (بدون امتیاز)
امتیاز دهید
فهرست مطالب
چکیده
1. مقدمه
2. اصول مقدماتی و پیشینه
1. 2 معماریهای سیستم ناهمگن
2. 2 واسط برنامه نویسی یکپارچه
3. طراحی و پیاده سازی
1. 3 انگیزه ها
2. 3 طراحی و پیاده سازی
1. 2. 3 پیش واکشی
2. 2. 3 فشرده سازی داده ها
3. 2. 3 شکافت وسیله
4. مدل هزینه
1. 4 مدل مجرد (انتزاعی)
7. نتایج
نمونه چکیده متن اصلی انگلیسی
ABSTRACT

Recently, there have been some emerging processor designs that the CPU and the GPU (Graphics Processing Unit) are integrated in a single chip and share Last Level Cache (LLC). However, the main memory bandwidth of such coupled CPU-GPU architectures can be much lower than that of a discrete GPU. As a result, current GPU query coprocessing paradigms can severely suffer from memory stalls. In this paper, we propose a novel in-cache query co-processing paradigm for main memory On-Line Analytical Processing (OLAP) databases on coupled CPU-GPU architectures. Specifically, we adapt CPU-assisted prefetching to minimize cache misses in GPU query co-processing and CPU-assisted decompression to improve query execution performance. Furthermore, we develop a cost model guided adaptation mechanism for distributing the workload of prefetching, decompression, and query execution between CPU and GPU. We implement a system prototype and evaluate it on two recent AMD APUs A8 and A10. The experimental results show that 1) in-cache query co-processing can effectively improve the performance of the state-of-the-art GPU co-processing paradigm by up to 30% and 33% on A8 and A10, respectively, and 2) our workload distribution adaption mechanism can significantly improve the query performance by up to 36% and 40% on A8 and A10, respectively.

نمونه چکیده ترجمه متن فارسی
چکیده
اخیراً، تعدادی طرح های پردازنده ظهور کرده است که در آنها CPU و GPU (واحد پردازش گرافیکی) در یک تراشه یکپارچه شده و سطح کش آخرین (LLC) را به اشتراک می گذارند. اما، پهنای باند حافظه اصلی چنین معماری های CPU-GPU جفت شده ای پائینتر ازGPU گسسته است. در نتیجه، پارادایم های (الگو) پردازش مشترک پرس و جوی GPU فعلی، شدیداً از توقف حافظه آسیب می بینند. در این مقاله، پارادایم جدید پردازش مشترک پرس و جو در کش برای پایگاههای داده پردازش تحلیلی آنلاین حافظه اصلی (OLAP) برروی معماریهای CPU-GPU جفت شده را پیشنهاد می کنیم. مخصوصاً، از پیش واکشی به کمک CPU برای به حداقل رساندن از دست رفتن اطلاعات کش در پردازش مشترک پرس و جوی GPU و از غیر فشرده سازی به کمک CPU برای بهبود عملکرد اجرای پرس و جو استفاده می کنیم. به علاوه، یک مکانیسم تطبیق هدایت شده با مدل هزینه برای توزیع حجم کار پیش واکشی، غیر فشرده سازی، و اجرای پرس و جو بین CPU و GPU، توسعه می دهیم. سپس نمونه اولیه سیستم را پیاده و آن را برروی دو AMD APU A8 و A10 جدید ارزیابی می کنیم. نتایج آزمایش نشان می دهد که 1) پردازش مشترک پرس و جو در کش، عملکرد پارادایم پردازش مشترک GPU پیشرفته را برروی A8 و A10 به ترتیب تا 30 و 33 درصد بهبود می بخشد؛ و 2) مکانیسم تطبیق توزیع حجم کار، عملکرد پرس و جو برروی A8 و A10 را به ترتیب 36 و 40 درصد بهبود می بخشد.

بدون دیدگاه