صفحه ی اصلی > اخبار و رویدادها > فناوری اطلاعات > مطالعه مقایسه ای فشورده سازی تصاویر
مطالعه مقایسه ای فشورده سازی تصاویر مشاهده در قالب PDF چاپ فرستادن به ایمیل
نوشته شده توسط محمدرضا عابدرستمی   
شنبه, 09 مهر 1401 ساعت 17:59

چکیده

در این مقاله، ما یک مطالعه تطبیقی از تکنیک‌های فشرده‌سازی تصویر رادار دیافراگم مصنوعی (SAR) ارائه می‌کنیم که برای ارتباط با سرعت بالا بسیار کمک می‌کند. تصاویر در مقایسه با تصاویر طبیعی دارای برخی ویژگی های متمایز هستند. در این مقاله مقایسه روش‌های فشرده‌سازی مانند DCT، SADCT، Tri – DCT، فشرده‌سازی تصویر فراکتال، JPEG-2000 با تکنیک‌های رمزگذاری و رمزگشایی مانند Set Partition در درخت سلسله مراتبی (SPIHT)، بلوک تعبیه‌شده پارتیشن (SPECK)، صفر تعبیه‌شده ارائه می‌شود. کدگذار بلوک درختی (EZBC).


1-مقدمه

فشرده‌سازی تصویر به دلیل محبوبیت روزافزون و استفاده از اینترنت و سیستم‌های چندرسانه‌ای همراه با نیازهای بالای پهنای باند و ذخیره‌سازی، به یکی از مهم‌ترین رشته‌های الکترونیک دیجیتال تبدیل شده است. دو نوع اساسی از طرح های فشرده سازی تصویر وجود دارد: فشرده سازی بدون اتلاف و فشرده سازی با اتلاف. در تکنیک های فشرده سازی بدون تلفات، تصویر بازیابی شده مشابه تصویر اصلی است. تکنیک‌های فشرده‌سازی بدون تلفات عبارتند از: کدگذاری با طول متغیر، کدگذاری LZW، کدگذاری صفحه بیت، کدگذاری پیش‌بینی‌کننده بدون تلفات، کدگذاری هافمن، کدگذاری برنج گلومب، کدگذاری حسابی و غیره... در فشرده‌سازی با اتلاف، تصویر بازیابی شده مشابه تصویر اصلی نیست. تکنیک های فشرده سازی با اتلاف عبارتند از کدگذاری پیش بینی با اتلاف، کدگذاری تبدیل و کدگذاری موجک. معمولاً تکنیک‌های فشرده‌سازی با تلفات پیچیده‌تر هستند و به محاسبات بیشتری نیاز دارند JPEG استاندارد بین‌المللی برای فشرده‌سازی مؤثر فشرده‌سازی تصویر دیجیتالی ثابت است. تکنیک تبدیل اولیه مورد استفاده در JPEG DCT است. ویژگی مهم DCT تراکم انرژی است [3]. DCT 8 نقطه ای یک مرحله کلیدی در بسیاری از برنامه های پردازش تصویر و ویدئو است. این در چندین استاندارد کدگذاری تصویر و ویدئو مانند JPEG، MPEG – 1، MPEG – 2، H.261 و H.263 استفاده می شود. DCT نه تنها در بلوک های مستطیلی متعامد است بلکه در بلوک های ذوزنقه ای و مثلثی نیز متعامد است. بنابراین می توان تصویر را بر اساس شکل تصویر به بلوک های ذوزنقه ای و مثلثی تقسیم کرد و به فشرده سازی بالا دست یافت. JPEG - 2000 [6،7،8،9] توسط سازمان بین المللی استاندارد (ISO)، کمیسیون بین المللی الکتروتکنیکی (IEC) توسعه یافته و توسط اتحادیه بین المللی مخابرات (ITU). JPEG-2000 دارای 12 استاندارد است (یعنی 12 روش رمزگذاری و رمزگشایی تکنیک). در JPEG-2000 قسمت 1 رمزگذاری فشرده سازی استاندارد در 3 مرحله انجام می شود 1) پردازش تصویر - شامل کاشی کاری، تغییر سطح DC، تبدیل چند جزء 2) فشرده سازی - تبدیل موجک گسسته (DWT)، کوانتیزاسیون، رمزگذاری آنتروپی) تشکیل جریان بیت فشرده .

فشرده‌سازی تصویر فراکتال با یافتن تبدیل‌های وابسته به تصویر به نام سیستم‌های تابع تکراری (IFS) به دست می‌آید. تصویر به بلوک‌های کوچک‌تر غیر همپوشانی به نام‌های محدوده و دامنه‌های همپوشانی که دو برابر اندازه بلوک‌های محدوده هستند، تقسیم می‌شود. تبدیل‌های Affine یافت می‌شوند که با بلوک دامنه برای هر بلوک محدوده مطابقت دارند. سپس از این دگرگونی های وابسته برای به دست آوردن جذبه ای استفاده می شود که بسیار شبیه تصویر اصلی است.


2-فشرده سازی تصویر فراکتال

فشرده‌سازی تصویر فراکتال (FIC) یک الگوریتم رمزگذاری زمان‌بر است. ایده اولیه توسط بارنزلی و دمکو در سال 1985 ارائه شد و الگوریتم عملی FIC تا سال 1992 توسط ژاکین اجرا نشد. FIC بر اساس ویژگی خود شباهت تصاویر واقعی و سیستم عملکرد تکرارشونده تقسیم‌بندی شده (PIFS) است، هر بلوک محدوده باید بهترین بلوک منطبق را از استخر دامنه بزرگ جستجو کند. تعداد زیادی از محاسبات مشابه اضافی باعث کاهش سرعت رمزگذاری FIC می شود. بنابراین، جهت تحقیق اصلی برای FIC بر چگونگی کاهش زمان رمزگذاری تحت فرض حفظ کیفیت تصویر متمرکز است. تکنیک بهینه سازی ازدحام ذرات (PSO) زمان رمزگذاری را با استفاده از اطلاعات بصری ویژگی لبه Image کاهش می دهد. به جای جستجوی کامل، یک نقشه جهت بر اساس نوع لبه بلوک های تصویر ساخته می شود که ذرات موجود در ازدحام را به مناطق متشکل از نامزدهای شباهت بالاتر هدایت می کند. یک الگوریتم ژنتیک با مکانیزم انتخاب ترکیبی، تصویر را به سه دسته تقسیم می‌کند: لبه صاف، لبه افقی/عمودی و لبه مورب/زیر مورب با توجه به ضرایب DCT، اکنون الگوریتم ژنتیک را روی این سه کلاس اعمال کنید. مینگ شنگ وو یک الگوریتم ژنتیک (GA) بر اساس تبدیل موجک گسسته (DWT) پیشنهاد کرد. برای هر بلوک محدوده، دو ضریب موجک برای یافتن مناسب ترین بلوک دو وجهی بلوک دامنه استفاده می شود. تطابق مشابه فقط با مناسب ترین بلوک انجام می شود تا هفت هشتم محاسبات اضافی MSE ذخیره شود. دوم، با تعبیه DWT در GA، یک GA مبتنی بر DWT ساخته شده است تا سرعت تکامل را بیشتر کند و کیفیت بازیابی خوبی را حفظ کند. فشرده سازی تصویر فراکتال تطبیقی ​​با استفاده از تکنیک PSO برای MSE بر اساس معیار توقف بین بلوک محدوده و بلوک دامنه استفاده می شود.


3- تکنیک های بهینه سازی

تکنیک های بهینه سازی برای فشرده سازی تصویر با بهینه سازی تکنیک کوانتیزاسیون برداری (VQ) مفید هستند. VQ شامل سه مرحله تولید کتاب کد، رمزگذاری برداری و رمزگشایی برداری است. Patane و Russo همه الگوریتم‌های VQ را به دو گروه طبقه‌بندی کردند، یکی مبتنی بر یادگیری رقابتی و دیگری مبتنی بر k-means. در روش‌های رقابتی مبتنی بر یادگیری، کتاب کد با فرآیند رقابت‌های متقابل جبرانی تولید می‌شود. روش‌های معمول گروه مبتنی بر یادگیری رقابتی شامل نقشه خودسازماندهی، رشد گاز عصبی و شبکه عصبی بود. الگوریتم‌های مبتنی بر k-means برای به حداقل رساندن خطای اعوجاج با انتخاب کتاب کد مناسب طراحی شده‌اند. یک الگوریتم شناخته شده مبتنی بر k-means، الگوریتم LBG است. الگوریتم LBG یک تکنیک کوانتیزاسیون برداری است که توسط Linde-BuzoGray معرفی شده است. الگوریتم LBG تحت الگوریتم مبتنی بر k معنی قرار می گیرد. در LBG خوشه بندی داده ها نقش عمده ای دارد.

خوشه بندی به معنای تقسیم مجموعه داده های بزرگ به مجموعه داده های کوچکتر بر اساس شباهت یا گروه بندی داده ها است. الگوریتم K-means:

مرحله 1: با توجه به n شیء، k مرکز خوشه را مقداردهی اولیه کنید.

مرحله 2: هر شی را به نزدیکترین مرکز خوشه خود اختصاص دهید.

مرحله 3: مرکز هر خوشه را به روز کنید

مرحله 4: 2 و 3 را تا زمانی که هیچ تغییری در هر مرکز خوشه ایجاد نشود تکرار کنید

الگوریتم LBG برای کوانتیزاسیون برداری ساده و کمتر پیچیده است، اما تولید کتاب کد کارآمد آن به مقادیر انتخاب تصادفی اولیه بستگی دارد. اخیراً الگوریتم‌های بهینه‌سازی تکاملی برای طراحی کتاب کد برای بهبود نتایج الگوریتم LGB توسعه یافته‌اند. راجپوت، حسین، سلیم و قریشی (2004) از الگوریتم سیستم کلونی مورچه ها (ACS) برای توسعه الگوریتم طراحی کتاب کد استفاده کردند. تولید کتاب کد با استفاده از ACS با نمایش بردارهای ضرایب در یک نمودار دو طرفه و به دنبال آن تعریف مکانیزم مناسب برای رسوب فرمون در لبه‌های نمودار تسهیل شد.

چن، یانگ و گو (2005) بهبودی را بر اساس بهینه سازی ازدحام ذرات (PSO) پیشنهاد کردند. از نتیجه الگوریتم LBG برای مقداردهی اولیه بهترین ذره جهانی استفاده شد که بوسیله آن می تواند همگرایی PSO را سرعت بخشد. علاوه بر این، وانگ و همکاران. (2007) یک الگوریتم ازدحام ذرات کوانتومی (QPSO) را برای حل مسئله کوله پشتی 0-1 پیشنهاد کرد. ژائو، فانگ، وانگ و پانگ (2007) از بهینه‌سازی ازدحام ذرات کوانتومی برای انتخاب نقاط محلی محاسبه‌شده از pbest و gbest برای هر ذره استفاده کردند و دو پارامتر u و z را تعریف کردند، موقعیت ذره مربوطه را به‌روزرسانی کردند. الگوریتم Firefly توسط یانگ در سال 2008 معرفی شد که بهترین کتاب کد را برای کوانتیزه برداری برداری فشرده سازی تصویر SAR ارائه می دهد. این ممکن است به عنوان یک رویکرد مبتنی بر ازدحام معمولی برای بهینه‌سازی در نظر گرفته شود، که در آن الگوریتم جستجو از رفتار اجتماعی کرم‌های شب تاب و پدیده ارتباطات بیولومنسنت الهام گرفته شده است. این بر اساس روشنایی، جذابیت و ضریب جذب محیط است. این سه فرض عبارتند از: 1. همه کرم شب تاب ها تک جنسیتی هستند، بنابراین یکی بدون توجه به جنسیت، توسط دیگری جذب می شود. 2. کرم شب تاب همیشه درخشان تر کرم شب تاب کمتر روشن تر را جذب می کند، اگر روشن تر وجود نداشته باشد، به طور تصادفی کمتر حرکت می کند. 3. روشنایی کرم شب تاب با تعیین می شود. تابع هدف. رابطه بین روشنایی یا شدت نور و فاصله با استفاده از

I=I0e-γr

در جایی که I0 شدت اولیه است، γ ضریب جذب محیط است r فاصله بین دو کرم شب تاب است. رابطه بین جذابیت و فاصله بین دو کرم شب تاب با استفاده از

β =β0e- γr

وقتی که فاصله بین دو شب تاب صفر باشد β0 تابع جذابیت است. فاصله بین دو کرم شب تاب i و j در Xi و Xj یک فاصله دکارتی است که با داده می شود

X X e X X e i i i j i = + - + â0 -ã ri j ( )

که α پارامتر تصادفی سازی است و ei بردار اعداد تصادفی است که از توزیع گاوسی یا توزیع یکنواخت گرفته شده است. به طور کلی β0=1، α بین 0 تا 1، γ بین 0.1 تا 10 قرار دارد. دو موضوع مهم در الگوریتم کرم شب تاب وجود دارد که عبارتند از تغییر شدت نور و فرمول بندی جذابیت.


فشرده و غیر فشرده تصاویر با اندازه 128 در 128 پس از فشرده سازی تصویر فراکتال با اندازه بلوک محدوده 2 و 4 به ترتیب در شکل 4 نشان داده شده است. مشاهده می شود که در مقایسه با اندازه بلوک برد 4، بلوک محدوده اندازه 2 کیفیت تصویر بازسازی شده خوب است.


در jpeg – 2000، برای سطح دوم تجزیه PSNR 71.7119 است. همانطور که در جدول 2 نشان داده شده است، با افزایش سطح تجزیه، مقدار PSNR و نسبت تراکم کاهش می یابد.

شکل 5. تصاویر SAR ورودی و فشرده‌سازی شده تکنیک فشرده‌سازی تصویر jpeg 2000 را نشان می‌دهد.

Range block size 2 range block size 4

Cpu0 = 35.1563 cpu0 = 179.8594

Cpu0 = 11.1406 cpu0 = 162.9688

Cpu0 = 5.2813  cpu0 = 117.4063

Cpu0 = 2.3594  cpu0 = 70.6406

Cpu0 = 1.5938cpu0 = 40.2500

Cpu0 = 0.8750 cpu0 = 22.1875

Cpu0 = 0.7344 cpu0 = 12.3750

Cpu0 = 0.5000 cpu0 = 6.2969

Cpu0 = 0.4531 cpu0 = 4

Cpu0 = 0.5781 cpu0 = 2.7031

Mse = 53.4712 mse = 58.3436

Psnr = 39.6814psnr = 30.4709

Elapsed time – 4.060896selapsed time – 2.491946 s


منبع:

https://www.researchgate.net/publication/303941538_A_Comparative_study_on_Image_and_Video_Compression_Techniques

آخرین بروز رسانی در شنبه, 09 مهر 1401 ساعت 19:33
 

اخبار و رویدادها

با ما باشید.

در باره ما

در باره ما

آخرین نظرات

آخرین نظرات

آدرس

آدرس