موازی‌سازی حافظه اشتراکی می‌تواند ساده، سریع و مقیاس‌پذیر باشد. ۲۰۱۷
Shared-Memory Parallelism Can be Simple, Fast, and Scalable 2017

دانلود کتاب موازی‌سازی حافظه اشتراکی می‌تواند ساده، سریع و مقیاس‌پذیر باشد. ۲۰۱۷ (Shared-Memory Parallelism Can be Simple, Fast, and Scalable 2017) با لینک مستقیم و فرمت pdf (پی دی اف) و ترجمه فارسی

نویسنده

Julian Shun

voucher (1)

۳۰ هزار تومان تخفیف با کد «OFF30» برای اولین خرید

سال انتشار

2017

زبان

English

تعداد صفحه‌ها

443

نوع فایل

pdf

حجم

26.6 MB

🏷️ قیمت اصلی: 200,000 تومان بود.قیمت فعلی: 129,000 تومان.

🏷️ قیمت اصلی: ۳۷۸٬۰۰۰ تومان بود. قیمت فعلی: ۲۹۸٬۰۰۰ تومان.

📥 دانلود نسخه‌ی اصلی کتاب به زبان انگلیسی(PDF)
🧠 به همراه ترجمه‌ی فارسی با هوش مصنوعی 🔗 مشاهده جزئیات

پیش‌خرید با تحویل فوری(⚡️) | فایل کتاب حداکثر تا ۳۰ دقیقه(🕒) پس از ثبت سفارش آماده دانلود خواهد بود.

دانلود مستقیم PDF

ارسال فایل به ایمیل

پشتیبانی ۲۴ ساعته

توضیحات

معرفی کتاب موازی‌سازی حافظه اشتراکی می‌تواند ساده، سریع و مقیاس‌پذیر باشد. ۲۰۱۷

موازی‌سازی کلید دستیابی به عملکرد بالا در محاسبات است. با این حال، نوشتن برنامه‌های موازی کارآمد و مقیاس‌پذیر، به‌طور قابل‌توجهی دشوار است و اغلب به تخصص قابل‌توجهی نیاز دارد. برای رفع این چالش، ارائه ابزارهای سطح بالا به برنامه‌نویسان برای توانمندسازی آنها در توسعه آسان راه‌حل‌ها، و در عین حال تأکید بر جنبه‌های نظری و عملی طراحی الگوریتم، برای اینکه راه‌حل‌های توسعه‌یافته بتوانند به طور کارآمد در بسیاری از تنظیمات مختلف اجرا شوند، بسیار مهم است. این پایان‌نامه این چالش را با استفاده از یک رویکرد سه‌جانبه متشکل از طراحی تکنیک‌ها، چارچوب‌ها و الگوریتم‌های برنامه‌نویسی حافظه مشترک برای مسائل مهم در محاسبات مورد بررسی قرار می‌دهد. این پایان‌نامه شواهدی ارائه می‌کند که با استفاده از تکنیک‌ها، چارچوب‌ها و الگوریتم‌های برنامه‌نویسی مناسب، برنامه‌های حافظه مشترک می‌توانند هم از نظر تئوری و هم در عمل، ساده، سریع و مقیاس‌پذیر باشند. نتایج توسعه‌یافته در این پایان‌نامه به تسهیل انتقال به دوران چند هسته‌ای کمک می‌کند.

بخش اول این پایان‌نامه ابزارها و تکنیک‌هایی را برای برنامه‌نویسی موازی قطعی معرفی می‌کند، از جمله ابزاری برای کپسوله‌سازی غیرقطعی‌بودن از طریق بلوک‌های ساختمانی تعویضی قدرتمند، و همچنین یک چارچوب جدید برای اجرای موازی حلقه‌های تکراری ترتیبی، که منجر به الگوریتم‌های موازی قطعی می‌شود که هم از نظر تئوری و هم در عمل کارآمد هستند. بخش دوم این پایان‌نامه Ligra را معرفی می‌کند، اولین چارچوب حافظه مشترک سطح بالا برای الگوریتم‌های پیمایش گراف موازی. این چارچوب به برنامه‌نویسان اجازه می‌دهد تا الگوریتم‌های پیمایش گراف را با استفاده از کدهای بسیار کوتاه و مختصر بیان کنند، عملکردی رقابتی با کدهای بسیار بهینه‌شده ارائه می‌دهد و تا چندین مرتبه سریع‌تر از سیستم‌های موجود طراحی‌شده برای حافظه توزیع‌شده است. این بخش از پایان‌نامه همچنین Ligra+ را معرفی می‌کند، که Ligra را با تکنیک‌های فشرده‌سازی گراف برای کاهش مصرف فضا و بهبود همزمان عملکرد موازی گسترش می‌دهد، و همچنین اولین سیستم پردازش گراف است که از فشرده‌سازی گراف در حافظه پشتیبانی می‌کند.

بخش‌های سوم و چهارم این پایان‌نامه شکاف بین تئوری و عمل در طراحی الگوریتم موازی را با معرفی اولین الگوریتم‌ها برای انواع مسائل مهم در گراف‌ها و رشته‌ها که هم از نظر تئوری و هم در عمل کارآمد هستند، پر می‌کنند. به عنوان مثال، این پایان‌نامه اولین الگوریتم‌های کار خطی و عمق چندلگاریتمی را برای ساخت درخت پسوندی و اتصال گراف که کاربردی نیز هستند، و همچنین یک الگوریتم حافظه مشترک کارآمد، عمق چندلگاریتمی و کارآمد از نظر حافظه نهان برای محاسبات مثلثی ایجاد می‌کند که به سرعت ۲ تا ۵ برابری نسبت به بهترین الگوریتم‌های موجود روی ۴۰ هسته دست می‌یابد.

این نسخه اصلاح‌شده پایان‌نامه‌ای است که برنده جایزه رساله دکتری ACM در سال 2015 شده است.


فهرست کتاب:

۱. روی جلد

۲. صفحه عنوان فرعی

۳. عنوان

۴. حق تکثیر

۵. تقدیم

۶. فهرست

۷. پیشگفتار

۸. فصل ۱ مقدمه

۹. فصل ۲ مقدمات و نمادگذاری

۱۰. بخش اول: تکنیک‌های برنامه‌نویسی برای موازین قطعی

۱۱. بخش دوم: تحلیل گراف در حافظه اشتراکی بزرگ-مقیاس

۱۲. بخش سوم: الگوریتم‌های گراف موازی

۱۳. بخش چهارم: الگوریتم‌های رشته‌ای موازی

۱۴. مراجع

۱۵. نمایه

۱۶. زندگینامه نویسنده

توضیحات(انگلیسی)

Parallelism is the key to achieving high performance in computing. However, writing efficient and scalable parallel programs is notoriously difficult, and often requires significant expertise. To address this challenge, it is crucial to provide programmers with high-level tools to enable them to develop solutions easily, and at the same time emphasize the theoretical and practical aspects of algorithm design to allow the solutions developed to run efficiently under many different settings. This thesis addresses this challenge using a three-pronged approach consisting of the design of shared-memory programming techniques, frameworks, and algorithms for important problems in computing. The thesis provides evidence that with appropriate programming techniques, frameworks, and algorithms, shared-memory programs can be simple, fast, and scalable, both in theory and in practice. The results developed in this thesis serve to ease the transition into the multicore era.

The first part of this thesis introduces tools and techniques for deterministic parallel programming, including means for encapsulating nondeterminism via powerful commutative building blocks, as well as a novel framework for executing sequential iterative loops in parallel, which lead to deterministic parallel algorithms that are efficient both in theory and in practice. The second part of this thesis introduces Ligra, the first high-level shared memory framework for parallel graph traversal algorithms. The framework allows programmers to express graph traversal algorithms using very short and concise code, delivers performance competitive with that of highly-optimized code, and is up to orders of magnitude faster than existing systems designed for distributed memory. This part of the thesis also introduces Ligra+, which extends Ligra with graph compression techniques to reduce space usage and improve parallel performance at the same time, and is also the first graph processing system to support in-memory graph compression.

The third and fourth parts of this thesis bridge the gap between theory and practice in parallel algorithm design by introducing the first algorithms for a variety of important problems on graphs and strings that are efficient both in theory and in practice. For example, the thesis develops the first linear-work and polylogarithmic-depth algorithms for suffix tree construction and graph connectivity that are also practical, as well as a work-efficient, polylogarithmic-depth, and cache-efficient shared-memory algorithm for triangle computations that achieves a 2–5x speedup over the best existing algorithms on 40 cores.

This is a revised version of the thesis that won the 2015 ACM Doctoral Dissertation Award.


Table of Contents

1. Cover

2. Half title

3. Title

4. Copyright

5. Dedication

6. Contents

7. Preface

8. Chapter 1 Introduction

9. Chapter 2 Preliminaries and Notation

10. Part I Programming Techniques for Deterministic Parallelism

11. Part II Large-Scale Shared-Memory Graph Analytics

12. Part III Parallel Graph Algorithms

13. Part IV Parallel String Algorithms

14. References

15. Index

16. Author’s Biography

دیگران دریافت کرده‌اند

✨ ضمانت تجربه خوب مطالعه

بازگشت کامل وجه

در صورت مشکل، مبلغ پرداختی بازگردانده می شود.

دانلود پرسرعت

دانلود فایل کتاب با سرعت بالا

ارسال فایل به ایمیل

دانلود مستقیم به همراه ارسال فایل به ایمیل.

پشتیبانی ۲۴ ساعته

با چت آنلاین و پیام‌رسان ها پاسخگو هستیم.

ضمانت کیفیت کتاب

کتاب ها را از منابع معتیر انتخاب می کنیم.