صفحه ی اصلی > اخبار و رویدادها > تازه های تکنولوژی
تازه های تکنولوژی
هرس شبکه مشاهده در قالب PDF چاپ فرستادن به ایمیل
نوشته شده توسط مهسا قبادی فومشی   
چهارشنبه, 25 آبان 1401 ساعت 15:32

مجله: sciencedaily


محققان علوم کامپیوتر نشان داده‌اند که یک تکنیک پرکاربرد به نام هرس شبکه عصبی می‌تواند بر عملکرد مدل‌های یادگیری عمیق تأثیر منفی بگذارد، جزئیاتی را که باعث این مشکلات عملکردی می‌شود، و تکنیکی برای رسیدگی به این چالش نشان دادند.


هرس شبکه


یادگیری عمیق نوعی هوش مصنوعی است که می تواند برای طبقه بندی چیزهایی مانند تصاویر، متن یا صدا استفاده شود. به عنوان مثال، می توان از آن برای شناسایی افراد بر اساس تصاویر چهره استفاده کرد. با این حال، مدل‌های یادگیری عمیق اغلب به منابع محاسباتی زیادی برای کار کردن نیاز دارند. هنگامی که یک مدل یادگیری عمیق برای برخی از برنامه ها به کار گرفته می شود، این امر چالش هایی را ایجاد می کند. برای مقابله با این چالش ها، برخی از سیستم ها درگیر «هرس شبکه عصبی» هستند. این به طور موثر باعث می‌شود که مدل یادگیری عمیق فشرده‌تر شود و در نتیجه بتواند با استفاده از منابع محاسباتی کمتری کار کند.


جونگ یون کیم، یکی از نویسندگان مقاله در مورد این کار و استادیار علوم کامپیوتر در دانشگاه ایالت کارولینای شمالی، می گوید: "با این حال، تحقیقات ما نشان می دهد که این هرس شبکه می تواند توانایی مدل های یادگیری عمیق برای شناسایی برخی گروه ها را مختل کند."

به عنوان مثال، اگر یک سیستم امنیتی از یادگیری عمیق برای اسکن چهره افراد استفاده می کند تا مشخص کند که آیا آنها به یک ساختمان دسترسی دارند یا خیر، مدل یادگیری عمیق باید فشرده باشد تا بتواند به طور موثر عمل کند. این ممکن است در بیشتر موارد به خوبی کار کند. زمان، اما هرس شبکه همچنین می تواند بر توانایی مدل یادگیری عمیق در شناسایی برخی از چهره ها تأثیر بگذارد.

در مقاله جدید خود، محققان توضیح می‌دهند که چرا هرس شبکه می‌تواند بر عملکرد مدل در شناسایی گروه‌های خاص تأثیر منفی بگذارد - که ادبیات آن‌ها را "گروه‌های اقلیت" می‌نامند - و تکنیک جدیدی را برای رسیدگی به این چالش‌ها نشان می‌دهند.

دو عامل توضیح می دهد که چگونه هرس شبکه می تواند عملکرد مدل های یادگیری عمیق را مختل کند. از نظر فنی، این دو عامل عبارتند از: نابرابری در هنجارهای گرادیان در بین گروه ها. و نابرابری در هنجارهای هسی مرتبط با نادرستی داده های یک گروه. از نظر عملی، این بدان معناست که مدل‌های یادگیری عمیق می‌توانند در تشخیص دسته‌های خاصی از تصاویر، صداها یا متن دقت کمتری داشته باشند. به طور خاص، هرس شبکه می‌تواند نقص‌های دقت را که قبلاً در مدل وجود داشت، تقویت کند.


به عنوان مثال، اگر یک مدل یادگیری عمیق برای تشخیص چهره ها با استفاده از مجموعه داده ای که شامل چهره 100 سفیدپوست و 60 آسیایی است آموزش داده شود، ممکن است در تشخیص چهره های سفید پوست دقیق تر باشد، اما همچنان می تواند عملکرد مناسبی برای تشخیص چهره های آسیایی داشته باشد. . پس از هرس شبکه، مدل به احتمال زیاد قادر به تشخیص برخی از چهره های آسیایی نیست.

کیم می‌گوید: «این کمبود ممکن است در مدل اصلی قابل‌توجه نبوده باشد، اما از آنجایی که با هرس شبکه تقویت می‌شود، ممکن است کمبود قابل توجه باشد.»

کیم می‌گوید: «برای کاهش این مشکل، رویکردی را نشان داده‌ایم که از تکنیک‌های ریاضی برای برابر کردن گروه‌هایی که مدل یادگیری عمیق برای دسته‌بندی نمونه‌های داده استفاده می‌کند، استفاده می‌کند. به عبارت دیگر، ما از الگوریتم‌هایی برای رفع شکاف در دقت در گروه‌ها استفاده می‌کنیم.»

در آزمایش، محققان نشان دادند که استفاده از تکنیک کاهش آنها، عادلانه بودن یک مدل یادگیری عمیق را که تحت هرس شبکه قرار گرفته بود، بهبود بخشید و اساساً آن را به سطوح دقت قبل از هرس برگرداند.

کیم می‌گوید: «من فکر می‌کنم مهم‌ترین جنبه این کار این است که ما اکنون درک کامل‌تری از اینکه چگونه هرس شبکه می‌تواند بر عملکرد مدل‌های یادگیری عمیق برای شناسایی گروه‌های اقلیت، چه از لحاظ نظری و چه از لحاظ تجربی، تأثیر بگذارد، داریم. ما همچنین آماده همکاری با شرکا برای شناسایی اثرات ناشناخته یا نادیده گرفته شده تکنیک های کاهش مدل، به ویژه در برنامه های کاربردی دنیای واقعی برای مدل های یادگیری عمیق هستیم."

مقاله «هرس تأثیر متفاوتی بر دقت مدل دارد» در سی و ششمین کنفرانس سیستم‌های پردازش اطلاعات عصبی (NeurIPS 2022)  که از 28 نوامبر تا دسامبر برگزار می‌شود، ارائه خواهد شد. 9 در نیواورلئان. اولین نویسنده مقاله کونگ تران از دانشگاه سیراکیوز است. این مقاله توسط فردیناندو فیورتو از سیراکوز و توسط راکشیت نایدو از دانشگاه کارنگی ملون نوشته شده است.


این کار با حمایت بنیاد ملی علوم، تحت کمک های مالی SaTC-1945541، SaTC-2133169 و CAREER-2143706 انجام شد. و همچنین برنده یک جایزه محقق تحقیقاتی گوگل و یک جایزه تحقیقاتی آمازون شد.


لینک مطلب: https://www.sciencedaily.com/releases/2022/11/221102115535.htm

منبع: Materials provided by North Carolina State University. Original written by Matt Shipman. Note: Content may be edited for style and length.


آخرین بروز رسانی در چهارشنبه, 25 آبان 1401 ساعت 15:43
 
معماری محاسباتی مشاهده در قالب PDF چاپ فرستادن به ایمیل
نوشته شده توسط مهسا قبادی فومشی   
چهارشنبه, 25 آبان 1401 ساعت 14:53

مجله: sciencedaily


یک معماری محاسباتی جدید، محاسبات پیشرفته یادگیری ماشینی را قادر می‌سازد تا بر روی یک دستگاه لبه‌ای کم مصرف و با محدودیت حافظه انجام شوند. این تکنیک ممکن است خودروهای خودران را قادر سازد تا در زمان واقعی تصمیم گیری کنند در حالی که تنها از کسری از انرژی که در حال حاضر توسط کامپیوترهای تشنه انرژی آنها نیاز است استفاده می کنند.

معماری محاسباتی


از یک دستگاه خانه هوشمند پیش بینی آب و هوا را بخواهید، چند ثانیه طول می کشد تا دستگاه پاسخ دهد. یکی از دلایلی که این تأخیر رخ می‌دهد این است که دستگاه‌های متصل حافظه یا قدرت کافی برای ذخیره و اجرای مدل‌های عظیم یادگیری ماشینی لازم برای درک اینکه کاربر از آن چه می‌خواهد را اجرا کنند. این مدل در مرکز داده ای ذخیره می شود که ممکن است صدها مایل دورتر باشد، جایی که پاسخ محاسبه شده و به دستگاه ارسال می شود.

محققان MIT روش جدیدی را برای محاسبه مستقیم روی این دستگاه ها ایجاد کرده اند که این تاخیر را به شدت کاهش می دهد. تکنیک آنها مراحل حافظه فشرده اجرای یک مدل یادگیری ماشینی را به یک سرور مرکزی منتقل می کند که در آن اجزای مدل بر روی امواج نور کدگذاری می شوند.

امواج با استفاده از فیبر نوری به یک دستگاه متصل منتقل می شوند، که امکان ارسال هزاران داده را به سرعت از طریق شبکه فراهم می کند. سپس گیرنده از یک دستگاه نوری ساده استفاده می کند که به سرعت محاسبات را با استفاده از قطعات مدلی که توسط آن امواج نور حمل می شود انجام می دهد.

این تکنیک در مقایسه با روش های دیگر منجر به بهبود بیش از صد برابری در بهره وری انرژی می شود. همچنین می‌تواند امنیت را بهبود بخشد، زیرا داده‌های کاربر نیازی به انتقال به یک مکان مرکزی برای محاسبه ندارند.

این روش می‌تواند یک خودروی خودران را قادر می‌سازد تا در زمان واقعی تصمیم‌گیری کند و در عین حال تنها درصد کمی از انرژی مورد نیاز رایانه‌های پرقدرت را مصرف کند. همچنین می‌تواند به کاربر اجازه دهد تا مکالمه‌ای بدون تأخیر با دستگاه خانه هوشمند خود داشته باشد، از آن برای پردازش ویدیوی زنده از طریق شبکه‌های سلولی استفاده شود، یا حتی طبقه‌بندی تصاویر با سرعت بالا را در فضاپیمایی میلیون‌ها مایل دورتر از زمین فعال کند.

"هر بار که می خواهید یک شبکه عصبی را اجرا کنید، باید برنامه را اجرا کنید، و اینکه چقدر می توانید برنامه را اجرا کنید بستگی به سرعتی دارد که می توانید برنامه را از حافظه وارد کنید. لوله ما بسیار بزرگ است -- این مربوط به ارسال یک فیلم بلند کامل از طریق اینترنت در هر میلی ثانیه یا بیشتر است. به این ترتیب داده ها به سرعت وارد سیستم ما می شوند. و می تواند به همین سرعت محاسبه کند، (نویسنده ارشد، درک انگلوند، دانشیار دپارتمان مهندسی برق و علوم کامپیوتر (EECS) و عضو آزمایشگاه تحقیقاتی الکترونیک MIT می گوید.)

الکساندر اسلادز، نویسنده اصلی و دانشجوی فارغ التحصیل EECS در این مقاله به انگلوند پیوسته است. سامیل باندیوپادیای دانشجوی فارغ التحصیل EECS ، رایان هامرلی، دانشمند پژوهشی، و همچنین سایرین از MIT، آزمایشگاه MIT لینکلن، و شرکت نوکیا. این تحقیق در Science منتشر خواهد شد.


سبک کردن بار

شبکه‌های عصبی مدل‌های یادگیری ماشینی هستند که از لایه‌هایی از گره‌های متصل یا نورون‌ها برای تشخیص الگوها در مجموعه داده‌ها و انجام وظایفی مانند طبقه‌بندی تصاویر یا تشخیص گفتار استفاده می‌کنند. اما این مدل‌ها می‌توانند حاوی میلیاردها پارامتر وزنی باشند، که مقادیر عددی هستند که داده‌های ورودی را هنگام پردازش تغییر می‌دهند. این وزن ها باید در حافظه ذخیره شوند. در عین حال، فرآیند تبدیل داده ها شامل میلیاردها محاسبات جبری است که برای انجام آنها به قدرت زیادی نیاز دارد.

اسلادز می‌گوید فرآیند واکشی داده‌ها (در این مورد وزن شبکه عصبی) از حافظه و انتقال آنها به قسمت‌هایی از رایانه که محاسبات واقعی را انجام می‌دهند، یکی از بزرگترین عوامل محدودکننده سرعت و بهره‌وری انرژی است.

"بنابراین فکر ما این بود که چرا این همه بلند کردن سنگین را انجام ندهیم - فرآیند واکشی میلیاردها وزنه از حافظه - آن را از دستگاه لبه دور نکنیم و در جایی قرار دهیم که دسترسی فراوانی به قدرت و حافظه داشته باشیم؟ که به ما این توانایی را می دهد که آن وزنه ها را به سرعت بیاوریم؟" او می گوید.

معماری شبکه عصبی که آنها توسعه دادند، Netcast، شامل ذخیره وزن در یک سرور مرکزی است که به یک سخت افزار جدید به نام فرستنده گیرنده هوشمند متصل است. این فرستنده گیرنده هوشمند، تراشه ای به اندازه انگشت شست که می تواند داده ها را دریافت و ارسال کند، از فناوری موسوم به فوتونیک سیلیکونی برای برداشت تریلیون ها وزن از حافظه در هر ثانیه استفاده می کند.

وزن‌ها را به‌عنوان سیگنال‌های الکتریکی دریافت می‌کند و آن‌ها را روی امواج نور نشان می‌دهد. از آنجایی که داده های وزن به صورت بیت (1 و 0) کدگذاری می شوند، فرستنده گیرنده آنها را با تعویض لیزر تبدیل می کند. لیزر برای 1 روشن و برای 0 خاموش می شود. این امواج نور را ترکیب می کند و سپس به صورت دوره ای آنها را از طریق یک شبکه فیبر نوری منتقل می کند تا دستگاه مشتری برای دریافت آنها نیازی به پرس و جو از سرور نداشته باشد.

Bandyopadhyay توضیح می دهد: "اپتیک عالی است زیرا راه های زیادی برای انتقال داده ها در اپتیک وجود دارد. به عنوان مثال، می توانید داده ها را روی رنگ های مختلف نور قرار دهید و این باعث می شود تا توان داده بسیار بالاتر و پهنای باند بیشتری نسبت به وسایل الکترونیکی داشته باشید."


تریلیون ها در ثانیه

هنگامی که امواج نور به دستگاه مشتری می رسد، یک جزء نوری ساده که به عنوان مدولاتور باند پهن "Mach-Zehnder" شناخته می شود از آنها برای انجام محاسبات آنالوگ فوق سریع استفاده می کند. این شامل کدگذاری داده های ورودی از دستگاه، مانند اطلاعات حسگر، بر روی وزنه ها است. سپس هر طول موج جداگانه را به گیرنده ای می فرستد که نور را تشخیص داده و نتیجه محاسبات را اندازه گیری می کند.

محققان راهی برای استفاده از این تعدیل کننده برای انجام تریلیون ها ضرب در ثانیه ابداع کردند که سرعت محاسبات روی دستگاه را به میزان قابل توجهی افزایش می دهد در حالی که تنها از مقدار کمی نیرو استفاده می کند.

برای اینکه چیزی سریعتر بسازید، باید آن را کارآمدتر کنید. اما یک معاوضه وجود دارد. ما سیستمی ساخته‌ایم که می‌تواند با حدود یک میلی‌وات قدرت کار کند، اما همچنان تریلیون‌ها ضرب در ثانیه انجام می‌دهد. اسلادز می‌گوید: از نظر سرعت و بهره‌وری انرژی، این افزایش مرتبه‌ای بزرگ است.

آنها این معماری را با ارسال وزنه ها روی یک فیبر 86 کیلومتری آزمایش کردند که آزمایشگاه آنها را به آزمایشگاه MIT لینکلن متصل می کند. Netcast یادگیری ماشینی را با دقت بالا - 98.7 درصد برای طبقه بندی تصویر و 98.8 درصد برای تشخیص رقم - در سرعت های سریع فعال کرد.

Hamerly می افزاید: "ما باید مقداری کالیبراسیون انجام می دادیم، اما من از اینکه چقدر کار کمی برای دستیابی به چنین دقت بالایی در خارج از جعبه باید انجام می دادیم شگفت زده شدم. ما توانستیم دقت تجاری مرتبط را بدست آوریم."

در حرکت رو به جلو، محققان می‌خواهند روی تراشه فرستنده گیرنده هوشمند برای دستیابی به عملکرد بهتر تکرار کنند. آنها همچنین می خواهند گیرنده را که در حال حاضر به اندازه یک جعبه کفش است، به اندازه یک تراشه کوچک کنند تا بتواند روی یک دستگاه هوشمند مانند تلفن همراه قرار گیرد.


این تحقیق تا حدی توسط NTT Research ، بنیاد ملی علوم، دفتر تحقیقات علمی نیروی هوایی، آزمایشگاه تحقیقات نیروی هوایی، و دفتر تحقیقات ارتش تامین می‌شود.



لینک مطلب: https://www.sciencedaily.com/releases/2022/10/221020140609.htm

منبع: Materials provided by Massachusetts Institute of Technology. Original written by Adam Zewe. Note: Content may be edited for style and length.


آخرین بروز رسانی در چهارشنبه, 25 آبان 1401 ساعت 15:20
 
یادگیری ماشین مشاهده در قالب PDF چاپ فرستادن به ایمیل
نوشته شده توسط مهسا قبادی فومشی   
چهارشنبه, 25 آبان 1401 ساعت 14:28

مجله: sciencedaily


نرم افزار جدید به افراد غیرمتخصص اجازه می دهد تا به طور مستقیم ماشین ها را با استفاده از مدل ها آموزش دهند.

بسیاری از سیستم‌های رایانه‌ای که افراد روزانه با آن‌ها در تعامل هستند، برای کار کردن نیاز به دانش در مورد جنبه‌های خاصی از جهان یا مدل‌ها دارند. این سیستم ها باید آموزش ببینند و اغلب نیاز به یادگیری تشخیص اشیاء از داده های ویدئویی یا تصویری دارند. این داده ها اغلب حاوی محتوای اضافی است که دقت مدل ها را کاهش می دهد. بنابراین محققان راهی برای گنجاندن حرکات طبیعی دست در فرآیند آموزش پیدا کردند. به این ترتیب، کاربران می توانند راحت تر به ماشین ها در مورد اشیاء آموزش دهند و ماشین ها نیز می توانند به طور موثرتری یاد بگیرند.

یادگیری ماشین


احتمالاً قبلاً اصطلاح یادگیری ماشینی را شنیده اید، اما آیا با آموزش ماشینی آشنایی دارید؟ یادگیری ماشینی چیزی است که در پشت صحنه زمانی اتفاق می‌افتد که کامپیوتر از داده‌های ورودی برای ایجاد مدل‌هایی استفاده می‌کند که بعداً می‌توانند برای انجام عملکردهای مفید مورد استفاده قرار گیرند. اما آموزش ماشینی قسمتی است که تا حدودی کمتر مورد بررسی قرار گرفته است، یعنی اینکه کامپیوتر چگونه داده های ورودی خود را برای شروع دریافت می کند. در مورد سیستم‌های بصری، برای مثال سیستم‌هایی که می‌توانند اشیا را تشخیص دهند، مردم باید اشیا را به رایانه نشان دهند تا بتواند در مورد آنها اطلاعات کسب کند. اما روش‌هایی که معمولاً این کار انجام می‌شود اشکالاتی دارد که محققان آزمایشگاه سیستم‌های هوشمند تعاملی دانشگاه توکیو به دنبال بهبود آن بودند.

ژونگی ژو، دانشجوی فارغ التحصیل می گوید: «در یک سناریوی معمولی آموزش شی، افراد می توانند یک شی را نزدیک دوربین نگه دارند و آن را به اطراف حرکت دهند تا رایانه بتواند آن را از همه زوایای آن تجزیه و تحلیل کند تا یک مدل بسازد. با این حال، ماشین‌ها فاقد توانایی تکامل‌یافته ما برای جداسازی اشیا از محیط‌شان هستند، بنابراین مدل‌هایی که می‌سازند می‌توانند ناخواسته شامل اطلاعات غیرضروری از پس‌زمینه تصاویر آموزشی باشند. این اغلب به این معنی است که کاربران باید زمان خود را برای اصلاح مدل‌های تولید شده صرف کنند، که می‌تواند نسبتاً یک مشکل باشد. کار فنی و زمان بر است. ما فکر کردیم باید راه بهتری برای انجام این کار وجود داشته باشد که هم برای کاربران و هم برای رایانه ها بهتر باشد، و با سیستم جدید ما، LookHere، من معتقدم که آن را پیدا کرده ایم."

ژو، با همکاری پروفسور کوجی یاتانی، LookHere را برای رسیدگی به دو مشکل اساسی در آموزش ماشینی ایجاد کرد: اول، مشکل کارایی آموزش، با هدف به حداقل رساندن زمان کاربران، و دانش فنی مورد نیاز. و دوم، کارایی یادگیری -- چگونه می توان از داده های یادگیری بهتر برای ماشین ها اطمینان حاصل کرد تا مدل هایی از آنها ایجاد کنند. LookHere با انجام کاری جدید و به‌طور شگفت‌انگیز شهودی به این موارد دست می‌یابد. این دستگاه حرکات دست کاربران را در نحوه پردازش یک تصویر قبل از اینکه دستگاه آن را در مدل خود که به نام HuTics شناخته می شود، وارد کند، ترکیب می کند. به عنوان مثال، یک کاربر می تواند به دوربین اشاره کند یا یک شی را به گونه ای به دوربین نشان دهد که بر اهمیت آن در مقایسه با سایر عناصر موجود در صحنه تأکید کند. این دقیقاً چگونه است که افراد ممکن است اشیا را به یکدیگر نشان دهند. و با حذف جزئیات اضافی، به لطف تأکید بیشتر بر آنچه واقعاً در تصویر مهم است، رایانه داده های ورودی بهتری را برای مدل های خود به دست می آورد.

ژو گفت: «این ایده کاملاً ساده است، اما اجرای آن بسیار چالش برانگیز بود. "هرکسی متفاوت است و هیچ مجموعه استانداردی از حرکات دست وجود ندارد. بنابراین، ما ابتدا 2040 ویدئوی نمونه از 170 نفر را که اشیا را به دوربین ارائه می کردند در HuTics جمع آوری کردیم. این دارایی ها حاشیه نویسی شدند تا مشخص کنند چه بخشی از جسم و چه قسمت هایی از آن است. تصویر فقط دستان شخص بود. LookHere با HuTics آموزش دیده بود و در مقایسه با سایر روش‌های تشخیص اشیا، بهتر می‌تواند تعیین کند که چه بخش‌هایی از یک تصویر دریافتی باید برای ساخت مدل‌های آن استفاده شود. برای اطمینان از اینکه تا حد امکان در دسترس است، کاربران می‌توانند از تلفن‌های هوشمند خود برای کار با LookHere استفاده می‌کنند و پردازش واقعی روی سرورهای راه دور انجام می‌شود. ما همچنین کد منبع و مجموعه داده‌های خود را منتشر کردیم تا دیگران در صورت تمایل بتوانند بر اساس آن بسازند."

ژو و یاتانی با توجه به کاهش تقاضا برای زمان کاربران که LookHere برای مردم فراهم می کند، دریافتند که می تواند مدل هایی را تا 14 برابر سریعتر از برخی از سیستم های موجود بسازد. در حال حاضر، LookHere با ماشین‌های آموزشی درباره اشیاء فیزیکی سر و کار دارد و منحصراً از داده‌های بصری برای ورودی استفاده می‌کند. اما در تئوری، این مفهوم را می توان برای استفاده از انواع دیگر داده های ورودی مانند داده های صوتی یا علمی گسترش داد. و مدل های ساخته شده از این داده ها نیز از پیشرفت های مشابهی در دقت بهره مند خواهند شد.



لینک مطلب: https://www.sciencedaily.com/releases/2022/11/221101111718.htm

منبع: Materials provided by University of Tokyo. Note: Content may be edited for style and length.


آخرین بروز رسانی در چهارشنبه, 25 آبان 1401 ساعت 15:18
 
هوش مصنوعی خودآموز در تشخیص بیماری های نادر مشاهده در قالب PDF چاپ فرستادن به ایمیل
نوشته شده توسط مهسا قبادی فومشی   
چهارشنبه, 25 آبان 1401 ساعت 13:33

مجله: sciencedaily


محققان یک الگوریتم یادگیری عمیق ایجاد کرده‌اند که می‌تواند به خود یاد دهد ویژگی‌هایی را بیاموزد که سپس می‌تواند برای یافتن موارد مشابه در مخازن بزرگ تصویر آسیب‌شناسی استفاده شود. مدل جدید به عنوان موتور جستجو برای پایگاه داده های بزرگ تصاویر آسیب شناسی عمل می کند و به شناسایی بیماری های نادر و تعیین بیمارانی که احتمالاً به درمان های مشابه پاسخ می دهند کمک می کند.

هوش مصنوعی خودآموز


تشخیص بیماری‌های نادر اغلب دشوار است و پیش‌بینی بهترین روش درمانی می‌تواند برای پزشکان چالش برانگیز باشد. محققین آزمایشگاه محمود در بیمارستان زنان و بریگهام، یکی از اعضای مؤسس سیستم مراقبت های بهداشتی Mass General Brigham، الگوریتم یادگیری عمیقی را توسعه داده اند که می تواند به خود یاد دهد تا ویژگی هایی را بیاموزد که سپس می تواند برای یافتن موارد مشابه در مخازن بزرگ تصاویر آسیب شناسی استفاده شود. این ابزار جدید که به عنوان SISH (جستجوی تصویر خود نظارت شده برای بافت شناسی) شناخته می شود، مانند یک موتور جستجو برای تصاویر آسیب شناسی عمل می کند و کاربردهای بالقوه زیادی دارد، از جمله شناسایی بیماری های نادر و کمک به پزشکان در تعیین اینکه کدام بیماران احتمالاً به درمان های مشابه پاسخ می دهند. مقاله ای در مورد معرفی الگوریتم خودآموزی در Nature Biomedical Engineering منتشر شده است.

فیصل محمود، نویسنده ارشد، دکترا، در بخش آسیب شناسی بریگام گفت: "ما نشان می دهیم که سیستم ما می تواند به تشخیص بیماری های نادر کمک کند و مواردی با الگوهای مورفولوژیکی مشابه بدون نیاز به حاشیه نویسی دستی، و مجموعه داده های بزرگ برای آموزش نظارت شده پیدا کند." . این سیستم پتانسیل بهبود آموزش پاتولوژی، زیرتایپ بندی بیماری، شناسایی تومور و شناسایی مورفولوژی نادر را دارد.

پایگاه های داده الکترونیکی مدرن می توانند حجم عظیمی از سوابق دیجیتال و تصاویر مرجع را ذخیره کنند، به ویژه در آسیب شناسی از طریق تصاویر کل اسلاید (WSIs). با این حال، اندازه گیگاپیکسل هر WSI مجزا و تعداد روزافزون تصاویر در مخازن بزرگ به این معنی است که جستجو و بازیابی WSI ها می تواند کند و پیچیده باشد. در نتیجه، مقیاس‌پذیری یک مانع مناسب برای استفاده کارآمد باقی می‌ماند.

برای حل این مشکل، محققان در ،SISH ،Brigham را توسعه دادند که به خود می‌آموزد بازنمایی ویژگی‌هایی را بیاموزد که می‌توان از آن برای یافتن مواردی با ویژگی‌های مشابه در آسیب‌شناسی با سرعت ثابت بدون توجه به اندازه پایگاه داده استفاده کرد.

در مطالعه خود، محققان سرعت و توانایی SISH را برای بازیابی اطلاعات زیرگروه بیماری قابل تفسیر برای سرطان های رایج و نادر آزمایش کردند. این الگوریتم با موفقیت تصاویر را با سرعت و دقت از پایگاه داده ای متشکل از ده ها هزار تصویر اسلاید کامل از بیش از 22000 مورد بیمار، با بیش از 50 نوع بیماری مختلف و بیش از ده ها سایت آناتومیکی بازیابی کرد. سرعت بازیابی در بسیاری از سناریوها، از جمله بازیابی زیرگروه بیماری، از روش‌های دیگر بهتر عمل کرد، به‌ویژه که اندازه پایگاه داده تصویر به هزاران تصویر مقیاس‌بندی می‌شود. حتی در حالی که حجم مخازن افزایش یافته بود، SISH همچنان می‌توانست سرعت جستجوی ثابتی را حفظ کند.


با این حال، این الگوریتم دارای محدودیت هایی از جمله نیاز به حافظه زیاد، آگاهی از زمینه محدود در اسلایدهای بافت بزرگ و این واقعیت است که به یک روش تصویربرداری محدود می شود.

به طور کلی، الگوریتم توانایی بازیابی موثر تصاویر را مستقل از اندازه مخزن و در مجموعه داده‌های متنوع نشان داد. همچنین مهارت در تشخیص انواع بیماری های نادر و توانایی خدمت به عنوان یک موتور جستجو برای شناسایی مناطق خاصی از تصاویر که ممکن است برای تشخیص مرتبط باشد را نشان داد. این کار ممکن است تا حد زیادی به تشخیص، پیش آگهی و تجزیه و تحلیل بیماری در آینده کمک کند.

محمود گفت: «با ادامه رشد اندازه پایگاه‌های اطلاعاتی تصویر، امیدواریم SISH در تسهیل شناسایی بیماری‌ها مفید باشد.» "ما معتقدیم یکی از جهت گیری های مهم آینده در این زمینه، بازیابی موارد چندوجهی است که شامل استفاده مشترک از داده های پاتولوژی، رادیولوژی، ژنومیک و پرونده الکترونیکی پزشکی برای یافتن موارد مشابه بیمار است."


لینک مطلب: https://www.sciencedaily.com/releases/2022/10/221010115319.htm

منبع: Materials provided by Brigham and Women's Hospital. Note: Content may be edited for style and length.


آخرین بروز رسانی در چهارشنبه, 25 آبان 1401 ساعت 15:17
 
الگوریتم ها مشاهده در قالب PDF چاپ فرستادن به ایمیل
نوشته شده توسط محمد یزدانیان   
پنجشنبه, 17 شهریور 1401 ساعت 12:15

دانشمندان MIT اولین شواهد سیستماتیک و کمی را ارائه کردند که نشان می‌دهد الگوریتم‌ها یکی از مهم‌ترین منابع بهبود در محاسبات هستند.

آنها نشان می‌دهند که الگوریتم‌ها با چه سرعتی در طیف وسیعی از مثال‌ها بهبود می‌یابند و همچنین اهمیت حیاتی آن‌ها را در پیشبرد محاسبات. الگوریتم ها به نوعی مانند والدین یک کامپیوتر هستند. آن‌ها به رایانه می‌گویند که چگونه اطلاعات را معنا کند تا بتوانند به نوبه خود، چیز مفیدی از آن بسازند. هر چه الگوریتم کارآمدتر باشد کامپیوتر کار کمتری باید انجام دهد. با وجود همه پیشرفت‌های تکنولوژیکی در سخت‌افزار محاسباتی و عمر مورد بحث قانون مور عملکرد کامپیوتر تنها یک طرف تصویر است.


در پشت صحنه روند دوم در حال رخ دادن است. الگوریتم ها در حال بهبود هستند بنابراین به نوبه خود قدرت محاسباتی کمتری مورد نیاز است. در حالی که کارایی الگوریتمی ممکن است کمتر مورد توجه قرار گیرد. اگر سرعت موتور جستجوی قابل اعتماد شما ناگهان به یک دهم برسد یا حرکت در مجموعه داده های بزرگ مانند لجن گردانی باشد قطعا متوجه خواهید شد.

دانشمندان با تمرکز بر تجزیه و تحلیل‌شده‌ترین ویژگی الگوریتم‌ها ترسیم کردند که چقدر سریع این خانواده‌ها بهبود یافته‌اند. اینکه چقدر سریع می‌توانستند مشکل را حل کنند. برای مشکلات محاسباتی بزرگ 43درصد از خانواده‌های الگوریتم‌ها پیشرفت‌های سال به سال داشتند که برابر یا بزرگ‌تر از دستاوردهای بسیار تبلیغ شده از قانون مور بود. در 14 درصد از مشکلات بهبود عملکرد از الگوریتم‌ها به میزان قابل توجهی از مواردی که از سخت‌افزار بهبود یافته است، پیشی گرفت. دستاوردهای بهبود الگوریتم به ویژه برای مشکلات کلان داده بزرگ بود. بنابراین اهمیت این پیشرفت ها در دهه های اخیر افزایش یافته است.

نیل تامپسون، دانشمند تحقیقاتی MIT در CSAIL و دانشکده مدیریت اسلون و نویسنده ارشد مقاله جدید می‌گوید: این اولین مقاله‌ای است که نشان می‌دهد الگوریتم‌ها با چه سرعتی در طیف وسیعی از نمونه‌ها بهبود می‌یابند. از طریق تجزیه و تحلیل خود ما توانستیم بگوییم که پس از بهبود الگوریتم چند کار دیگر با استفاده از همان مقدار قدرت محاسباتی می‌توان انجام داد.



منبع:

https://scitechdaily.com/computer-science-how-quickly-do-algorithms-improve/

By Rachel Gordon, MIT CSAIL September 25, 2021

آخرین بروز رسانی در پنجشنبه, 17 شهریور 1401 ساعت 15:31
 
<< شروع < قبلی 1 2 3 4 5 6 7 بعدی > انتها >>

صفحه 1 از 7

اخبار و رویدادها

با ما باشید.

در باره ما

در باره ما

آخرین نظرات

آخرین نظرات

آدرس

آدرس