مقاله ترجمه شده درباره چارچوب های بهره وری در محاسبات مربوط به پردازش عکس های با حجم داده بالا – سال 2014


مشخصات مقاله:


عنوان فارسی مقاله:

چارچوب های بهره وری در محاسبات مربوط به پردازش عکس های با حجم داده بالا – تولید عکس های موزاییکی با استفاده از چارچوب های نرم افزاری hadoop و scalding


عنوان انگلیسی مقاله:

Productivity frameworks in big data image processing computations – creating photographic mosaics with Hadoop and Scalding


کلمات کلیدی مقاله:

پردازش تصوير، داده هاي بزرگ، چارچوب بهره وري، هادوپ


مناسب برای رشته های دانشگاهی زیر:

مهندسی کامپیوتر


مناسب برای گرایش های دانشگاهی زیر:

مهندسی نرم افزار و مهندسی الگوریتم ها و محاسبات


وضعیت مقاله انگلیسی و ترجمه:

مقاله انگلیسی را میتوانید به صورت رایگان با فرمت PDF از باکس زیر دانلود نمایید. ترجمه این مقاله با فرمت WORD – DOC آماده خریداری و دانلود آنی میباشد.


فهرست مطالب:

چکیده

1- مقدمه

2- تولید موزاییک: MapReduce و Scalding

2.1 روش MapReduce

2-2 روش Scalding

3- نتایج آزمایشگاهی

4. نتایج


قسمتی از مقاله انگلیسی و ترجمه آن:

Introduction

In the last decade, big data analytics have become a major decision support factor in the industry and a number of technologies have been developed to both enable and streamline processing of huge volumes and variety of data. The most ubiquitous amongst them is Apache Hadoop [1] – an opensource software framework for storage and large scale processing of data-sets on clusters of commodity hardware that can reliably scale to thousands of nodes and petabytes of data. Around the Hadoop core grew an ecosystem of technologies including among others: workflows (e.g., Oozie [2]), databases (e.g., HBase [3]), machine learning engines (e.g., Mahout [4]) log analysis tools (e.g., Apache Flume [4]) and productivity frameworks.

1- مقدمه
در دهه ی گذشته، تحلیل های مربوط به داده های با حجم بالا به یک فاکتور اساسی و مهم حمایت از تصیم، در صنعت و همچنین تعدادی از تکنولوژی هایی که به منظور فعال سازی و ساده سازی فرآیند پردازش داده های با تنوع و حجم بالا توسعه یافته بودند، تبدیل شده بود. در دسترس ترین تکنولوژی بین آنها مدل Apache Hadoop است، که یک چارچوب نرم افزاری منبع باز برای ذخیره و پردازش مجموعه – داده های با مقیاس بالا (حجم آن ها بالاست) بر خوشه های مختلفی از سخت افزار است، که توانایی تقسیم و کاهش مقیاس آن ها را به هزاران گره و پتابایت از داده را دارد. در کنار توسعه ی هسته ی Hadoop مجموعه ای از تکنولوژی ها شامل موارد زیر نیز به وجود آمدند : جریان (گردش) کاری (به عنوان مثال: Oozie(2))، پایگاه های داده (به عنوان مثال: HBase(3))، موتورهای آموزش ماشین (به عنوان مثال: Mahut (4))، ابزارهای تحلیلی لوگ (به عنوان مثال: Apache Flume(4)) و چارچوب های بهره وری.


 

دانلود رایگان مقاله انگلیسی

خرید ترجمه مقاله

دیدگاهتان را بنویسید