نمايش پست تنها
قديمي ۱۰-۱۱-۱۳۹۰, ۰۵:۴۶ بعد از ظهر   #4 (لینک دائم)
farshad_pickup Male
عضو فعال
 
آواتار farshad_pickup
 
تاريخ عضويت: دي ۱۳۸۸
محل سكونت: تهران
پست ها: 12
تشكرها: 4
4 تشكر در 4 پست
My Mood: Badhal
پيش فرض

در این شبکه (پچل) وزنهای اولیه مقادیر کوچک اتفاقی انتخاب می شوند سپس بعد از به دست آوردن خروجی های هر لایه برای هر ورودی خطا برای هر لایه محاسبه می شود و وزن به روز می شود
در این الگوریتم اگر وزنهای اولیه خیلی بزرگ باشند،توابع فعالیت لایه آخر به حالت اشباع می روند ،'f بسیار کوچک می شود و اصلاح وزنها واقعا کند می شود
اگر وزنهای اولیه خیلی کوچک باشند ، ورودی های خطی بسیار کوچک می شوند و اصلاح وزنها باز هم کند می شود
معمولا وزنهای اولیه را در فاصله [1,1-]یا [0.5,0.5-] انتخاب می کنند
البته Widrow و Nguyen هم یک پیشنهاد برای انتخاب این وزنها داده اند
ابتدا همه وزن ها به صورت تصاوفی در بازه[0.5,0.5-] انتخاب می شوند بعد برای تعداد واحد های ورودی n و تعداد واحد های لایه مخفی p، داریم
كد:
beta = 0.7*(p)^(1/n)
وزنهای اولیه لایه مخفی را به صورت زیر تغییر می دهیم
كد:
w new(i,j) = ((beta * (w old(i,j)))/||w old(i,j)||)
بعد
farshad_pickup آفلاين است   پاسخ با نقل قول
از farshad_pickup تشكر كرده است:
Solsal (۱۰-۲۴-۱۳۹۰)