مقاله ترجمه شده درباره چارچوب های بهره وری در محاسبات مربوط به پردازش عکس های با حجم داده بالا – سال 2014
مشخصات مقاله:
عنوان فارسی مقاله:
چارچوب های بهره وری در محاسبات مربوط به پردازش عکس های با حجم داده بالا – تولید عکس های موزاییکی با استفاده از چارچوب های نرم افزاری hadoop و scalding
عنوان انگلیسی مقاله:
Productivity frameworks in big data image processing computations – creating photographic mosaics with Hadoop and Scalding
کلمات کلیدی مقاله:
پردازش تصوير، داده هاي بزرگ، چارچوب بهره وري، هادوپ
مناسب برای رشته های دانشگاهی زیر:
مهندسی کامپیوتر
مناسب برای گرایش های دانشگاهی زیر:
مهندسی نرم افزار و مهندسی الگوریتم ها و محاسبات
وضعیت مقاله انگلیسی و ترجمه:
مقاله انگلیسی را میتوانید به صورت رایگان با فرمت PDF از باکس زیر دانلود نمایید. ترجمه این مقاله با فرمت WORD – DOC آماده خریداری و دانلود آنی میباشد.
فهرست مطالب:
چکیده
1- مقدمه
2- تولید موزاییک: MapReduce و Scalding
2.1 روش MapReduce
2-2 روش Scalding
3- نتایج آزمایشگاهی
4. نتایج
قسمتی از مقاله انگلیسی و ترجمه آن:
Introduction
In the last decade, big data analytics have become a major decision support factor in the industry and a number of technologies have been developed to both enable and streamline processing of huge volumes and variety of data. The most ubiquitous amongst them is Apache Hadoop [1] – an opensource software framework for storage and large scale processing of data-sets on clusters of commodity hardware that can reliably scale to thousands of nodes and petabytes of data. Around the Hadoop core grew an ecosystem of technologies including among others: workflows (e.g., Oozie [2]), databases (e.g., HBase [3]), machine learning engines (e.g., Mahout [4]) log analysis tools (e.g., Apache Flume [4]) and productivity frameworks.
1- مقدمه
در دهه ی گذشته، تحلیل های مربوط به داده های با حجم بالا به یک فاکتور اساسی و مهم حمایت از تصیم، در صنعت و همچنین تعدادی از تکنولوژی هایی که به منظور فعال سازی و ساده سازی فرآیند پردازش داده های با تنوع و حجم بالا توسعه یافته بودند، تبدیل شده بود. در دسترس ترین تکنولوژی بین آنها مدل Apache Hadoop است، که یک چارچوب نرم افزاری منبع باز برای ذخیره و پردازش مجموعه – داده های با مقیاس بالا (حجم آن ها بالاست) بر خوشه های مختلفی از سخت افزار است، که توانایی تقسیم و کاهش مقیاس آن ها را به هزاران گره و پتابایت از داده را دارد. در کنار توسعه ی هسته ی Hadoop مجموعه ای از تکنولوژی ها شامل موارد زیر نیز به وجود آمدند : جریان (گردش) کاری (به عنوان مثال: Oozie(2))، پایگاه های داده (به عنوان مثال: HBase(3))، موتورهای آموزش ماشین (به عنوان مثال: Mahut (4))، ابزارهای تحلیلی لوگ (به عنوان مثال: Apache Flume(4)) و چارچوب های بهره وری.