مقاله محدودیت های ضبط موازی سازی سطح دستور همراه با متن لاتین
این مقاله در 30 صفحه و در قالب word در زمینه موازی سازی سیستم عامل ها تهیه و تنظیم شده است این مقاله از یک مقاله لاتین و معتبر (از سایت ساینس دایرکت) ترجمه و ویرایش شده است |
دسته بندی | کامپیوتر و IT |
فرمت فایل | doc |
حجم فایل | 705 کیلو بایت |
تعداد صفحات فایل | 30 |
این مقاله در 30 صفحه و در قالب word در زمینه موازی سازی سیستم عامل ها تهیه و تنظیم شده است این مقاله از یک مقاله لاتین و معتبر (از سایت ساینس دایرکت) ترجمه و ویرایش شده است.
فهرست
چکیده
مقدمه
2.یک مدل برای اجرای یک برنامه به صورت موازی
2.1 حذف وابستگی کنترل و وابستگی صحیح مدیریت پشته
2.2 انشعاب نظری و غیر نظری.
3-چارچوب آزمایشی.
3.1 شبیه ساز PerPI.
3.2مجموعه معیارهای cBenchو مجموعه داده انتخابی.
3.3شبیه سازی مدلهای مختلف.
3.4 شبیه سازی مدل انشعابی.
3.5 نتایج شبیه سازی
3.6 IPL مدل انشعابی بر روی کدهای اصلاح شده
3.7 تفاوت بین مدل انشعاب نظری با غیر نظری چیست؟
4.کارهای مرتبط بر روی مسیر موازی سازی خودکار
5. نتیجه گیری
مراجع.
چکیده
ما ظرفیت مدل های مختلف در حال اجرا را برای بهره مندی از موازی سازی سطح دستور (IPL) تحلیل کردیم.ابتدا، نشان می دهیم که قفل های ضبط فاصله IPLساکن (مقیم) هستند. ما این موارد را نشان می دهیم: 1)دریافت(واکشی)به صورت موازی2)تغییر نام منابع حافظه 3)از بین بردن وابستگی صحیح پارازیتی بر روی مدیریت پشته کلیدهای ضبط فاصله IPL.دوم پتانسیل یک مدل اجرایی جدید به نام انشعاب نظری را اندازه گیری می کنیم،که در آن یک اجرا به صورت پویا توسط انشعاب در هر تابع و حلقه مرزی ورودی چند نخی است و نخها برای پیوند مشتریان تغییر نام داده به دیگر تولید کنندگان ارتباط برقرار می کنند.ما نشان می دهیم که یک اجرا می تواند به طور خودکار توسط انشعاب نظری و تغییر نام قابل تعمیم موازی سازی شود.بسیاری از IPLدور، با افزایش اندازه داده ،می تواند به درستی برنامه های کامپایل شده براساس الگوریتم های موازی را ضبط کند.
کلمات کلیدی:
موازی سازی خودکار، موازی سازی ضبط سطح دستور IPLدور،انشعاب نظری ، تغییر نام حافظه
Limits of Instruction-Level Parallelism Capture.
Abstract
We analyse the capacity of different running models to benefit from the Instruction-Level Parallelism (ILP). First,
we show where the locks to the capture of distant ILP reside. We show that i) fetching in parallel, ii) renaming
memory references and iii) removing parasitic true dependencies on the stack management are the keys to capture
distant ILP. Second, we measure the potential of a new running model, named speculative forking, in which a run
is dynamically multi-threaded by forking at every function and loop entry frontier and threads communicate to link
renamed consumers to their producers. We show that a run can be automatically parallelized by speculative forking
and extended renaming. Most of the distant ILP, increasing with the data size, can be captured for properly compiled
programs based on parallel algorithms.
Keywords: Automatic parallelization, Instruction-Level Parallelism, distant ILP capture, speculative forking,
memory renaming
AbstractWe analyse the capacity of different running models to benefit
from the Instruction-Level Parallelism (ILP). First,we show where the
locks to the capture of distant ILP reside. We show that i) fetching in
parallel, ii) renamingmemory references and iii) removing parasitic true
dependencies on the stack management are the keys to capturedistant
ILP. Second, we measure the potential of a new running model, named
speculative forking, in which a runis dynamically multi-threaded by
forking at every function and loop entry frontier and threads
communicate to linkrenamed consumers to their producers. We show that a
run can be automatically parallelized by speculative forkingand extended
renaming. Most of the distant ILP, increasing with the data size, can
be captured for properly compiledprograms based on parallel
algorithms.Keywords: Automatic parallelization, Instruction-Level
Parallelism, distant ILP capture, speculative forking,memory renaming