سلام
من این چند خط رو از Wikipedia انگلیسی ترجمه کردم. کامل نیست. ولی برای آشنایی بد نیست.
موفق باشید.
انتشار بازگشتی، و یا انتشار خطا، یکی از شیوه های رایج آموزش شبکههای عصبی مصنوعی می باشد. این الگوریتم اولین بار در سال ۱۹۸۶ توسط "Arthur E. Bryson" و "Yu-Chi Ho" ارائه شد. اما اولین بار در سال ۱۹۸۶ توسط تلاشهای "David E. Rumelhart" ،"Geoffrey E. Hinton" و "Ronald J Williams" به رسمیت شناخته شد و به نوعی تبدیل به یک رنسانس در زمینهٔ شبکه های عصبی مصنوعی شد.
این الگوریتم از نوع الگوریتمهای یادگیری با ناظر میباشد، که در آن از قانون دلتا استفاده میشود. در این الگو ریتم به یک آموزگار نیاز داریم که خروجی مناسب برای یک ورودی را بداند و یا اینکه بتواند آن را حساب کند. این الگوریتم بیشتر برای آموزش شبکه های "Feed Forward" مناسب میباشد. واژهٔ "back-propagation" مخفف عبارت "backwards propagation of errors" به معنی انتشار بازگشتی خطاها میباشد. پیش نیاز استفاده از این الگوریتم این است که تابع فعال سازی مورد استفاده در نویرونها مشتق پذیر باشد.
خلاصه الگوریتم انتشار بازگشتی
1. از مجموعه ای که برای آموزش شبکه عصبی در نظر گرفته شده، یک نمونه را به عنوان ورودی به شبکه عصبی معرفی می کنیم.
2. خروجی تمامی نویرون ها، با خروجی مطلوبمان مقایسه می شوند و برای تمامی نویرون های لایه آخر، میزان خطا محاسبه می شود.
3. برای تمامی نویرون ها محاسبه می شود که خروجی نویرون ها به چه میزان باید تنظیم شوند تا به خروجی مطلوب نزدیک تر شوند.
4. وزن های تمامی نویرون ها به گونه ای تنظیم می شوند تا میزان خطا کمتر شود.
ترجمه و تلخص از ویکی پدیای انگلیسی
نقل قول:
نوشته اصلي بوسيله Matin_Delphi
کسی میتونه الگوریتم back propagation را توضیح بده و در هر مرحله فلسفه کارش رو بگه
|