شبکه های عصبی در همه جا | MIT News

۲۵ بهمن ۱۳۹۶ کافه

پیشرفت های اخیر در سیستم های هوش مصنوعی مانند برنامه های گفتاری و یا تشخیص چهره از طریق شبکه های عصبی مطرح شده هست، برای انجام وظایف به همراه تجزیه و تحلیل مجموعه های گسترده ای از اطلاعات آموزشی.

اما شبکه های عصبی بزرگ هستند و محاسبه همراهت آنها انرژی زیادی دارند، بنابراین برای دستگاه های دستی بسیار کاربردی نیستند. اکثر برنامه های گوشی های هوشمند که روی شبکه های عصبی تکیه می کنند، به راحتی داده ها را به سرورهای اینترنتی ارسال می کنند، که آن را پردازش می کنند و نتایج را به تلفن ارسال می کنند.

اکنون محققان MIT یک تراشه خاصی را ایجاد کرده اند که سرعت رایانه های عصبی را سه تا هفت به همراهر بیش از پیشزنان خود افزایش می دهد، در حالی که مصرف انرژی ۹۴ تا ۹۵ درصد کاهش می یابد. این امر می تواند عملی ساختن شبکه های عصبی به صورت محلی بر روی گوشی های هوشمند یا حتی به آنها را در لوازم خانگی جای گذاری کند.

"مدل پردازشگر عمومی این هست که در برخی از بخش های تراشه حافظه وجود دارد و در قسمت دیگری از تراشه یک پردازنده وجود دارد و وقتی این محاسبه همراهت را انجام می دهید، داده ها به عقب و جلو حرکت می کنند" Avishek Biswas، یکی از فارغ التحصیلان MIT در مهندسی برق و علوم رایانه می گوید که توسعه تراشه های جدید را رهبری می کند.

"از آنجاییکه این الگوریتم های یادگیری ماشین نیاز به محاسبه همراهت بسیار زیادی دارند، انتقال داده ها به عقب و جلو بخش عمده ای از مصرف انرژی هست. اما محاسبه همراهت این الگوریتم ها را می توان به یک عملیات خاص ساده، به نام محصول نقطه هست. رویکرد ما این بود، آیا می توانیم این قابلیت dot-product را در داخل حافظه اجرا کنیم تا نیازی به انتقال این داده ها به عقب و جلو نیست؟ »

Biswas و مشاور پایان نامه او Anantha Chandrakasan، دبیر دانشکده مهندسی MIT و پروفسور مهندسی برق و علوم رایانه ونویر بوش، چیپ جدید را در مقاله ای ارائه می کنند که Biswas در این هفته در کنفرانس مدارهای بین المللی جامد ارائه می دهد

به همراهزگشت به آنالوگ

شبکه های عصبی به طور معمول به لایه ها تنظیم می شوند. یک گره پردازش تک در یک لایه از شبکه معمولا داده ها را از چندین گره در لایه زیر دریافت می کند و داده ها را به چند گره در لایه به همراهلا منتقل می کند. هر ارتبه همراهط بین گره ها دارای وزن "خود" هست، که نشان می دهد که چقدر نقش یک خروجی یک گره در محاسبه همراهت انجام شده توسط بعدی به همراهزی می کند. آموزش شبکه، موضوع تنظیم این وزن هست.

گره ای که داده ها را از گره های چندگانه در لایه زیر دریافت می کند، هر ورودی را به وسیله وزن اتصال مربوطه و نتیجه را جمع می کند. این عملیات – جمع شدن ضرب ها – تعریف یک محصول نقطه ای هست. اگر محصول نقطه بیش از مقدار آستانه به همراهشد، گره آن را به گره ها در لایه بعدی، بیش از اتصالات به همراه وزن خودشان ارسال می کند.

یک شبکه عصبی انتزاعی هست: "گره ها" فقط وزنی هستند که در حافظه کامپیوتر ذخیره می شوند. محاسبه یک محصول نقطه معمولا شامل گرفتن وزن از حافظه، جمع آوری داده های مربوط به داده ها، ضرب کردن دو، ذخیره نتیجه در جایی، و سپس تکرار عملیات برای هر ورودی به یک گره. به همراه توجه به اینکه یک شبکه عصبی دارای هزاران یا حتی میلیون ها گره هست، این اطلاعات زیادی برای حرکت دارد.

اما این دنبه همراهله از عملیات فقط یک تقریب دیجیتال از آنچه در مغز اتفاق می افتد، جایی که سیگنال های همراه نورون های متعدد در "سیناپس" یا فاصله ای بین دسته های نورون ها ملاقات می کنند. سرعت شلیک نورون ها و سیگنال های الکتروشیمیایی که از سیناپس عبور می کنند، به همراه مقادیر و وزن داده ها مطابقت دارند. تراشه جدید محققان MIT، به همراه تکرار مغز به همراه احترام تر، کارایی را بهبود می بخشد.

در تراشه، مقادیر ورودی گره به ولتاژهای الکتریکی تبدیل می شوند و سپس به همراه وزن های مناسب ضرب می شوند. فقط ولتاژهای ترکیبی دوبه همراهره به نمایندگی دیجیتال تبدیل می شوند و برای پردازش بیشتر ذخیره می شوند.

بنابراین تراشه می تواند محصولات نقطه برای چند گره – ۱۶ در یک زمان، در نمونه اولیه – در یک مرحله، به جای shuttling بین پردازنده و حافظه برای هر محاسبه همراهت محاسبه.

همه یا هیچ چیز

یکی از کلید های سیستم این هست که همه وزن ها ۱ یا -۱ هستند. این بدان معنی هست که آنها می توانند در داخل حافظه خود به عنوان سوئیچ های ساده که مدار را بسته اند یا آن را به همراهز نگه می دارند، اجرا شود. کار نظری اخیر نشان می دهد که شبکه های عصبی که تنها به همراه دو وزن آموزش دیده اند به همراهید دقت کمی را از دست بدهند – جایی بین ۱ تا ۲ درصد.

تحقیقات Biswas و Chandrakasan که پیش بینی می کنند. در آزمایشات، اجرای کامل یک شبکه عصبی بر روی یک کامپیوتر معمولی و معادل وزن به همراهینری بر روی تراشه آنها اجرا شد. نتایج تراشه آنها معمولا بین ۲ تا ۳ درصد از شبکه های معمولی بود.

داريو جيل، معاون رئيس اطلاعات هوش مصنوعي در IBM مي گويد: "اين يک تظاهرات محرمانه در دنياي واقعي محسوب مي شود. مشخصات قابل ملاحظه ای برای اجرای صرفه جویی انرژی از عملیات کانولا به همراه آرایه های حافظه. مطمئنا امکان هستفاده از شبکه های عصبی مجتمع پیچیده پیچیده تر برای طبقه بندی تصویر و ویدئو در IOT [the internet of things] در آینده فراهم خواهد شد. "

دانلود آهنگ مسعود صادقلو ما به هم میایم