نقل قول:
نوشته اصلي بوسيله mansor50
شبکه grnn
شبكه هاي عصبي grnn اغلب به عنوان توابع تخمين استفاده ميشوند. كه شامل يك لايه radial basis و يك لايه خطي ويژه ميباشد.
شبكه عصبي grnn كه در زير نشان داده شده است شبيه به شبكه هاي radial basis ميباشد كه داراي تفاوتهايي در لايه است.
همانطور در شكل بالا مشاهده ميكنيد تابع nprod يك بردار( n^2 ) شامل s^2مقدار توليد ميكند. كه اين مقادير حاصل ضرب نقطهاي 〖lw〗^2.1 در بردار ورودي a^1 ميباشند. كه همه مقادبر بردار حاصل به دليل جمع مقادير a^1 نرمال است.
لايه اول شبكه grrn دقيقاً شبيه شبكه rb است كه داراي تعدادي نرون است كه با بردارهاي ورودي/ هدف (p) مقدار دهي ميشود. در لايه اول وزنها با مقدار p’ و بردارb^1 با بردار ستوني كه داراي مقدار spread/0.8326 است مقداردهي اوليه ميشوند كه البته مقدار spread قابل تغيير است.
در لايه اول وزن هر نرون فاصله برداري بين بردار وزن با بردار ورودي است كه توسط تابع ||dist|| محاسبه ميشود. همچنين نرونهاي ورودي شبكه از طريق بردار ورديهاي وزندار و باياس كه توسط تابع nprod محاسبه ميشود توليد ميشود. نرون هاي خروجي هم همان وروديهاي شبكه هستند كه توسط radbas انتقال داده شدهاند.
در شبكه grnn اگر بردار ورودي و بردار وزن با هم برابر باشند بردار وزنهاي ورودي صفر خواهد شد و خروجي يك ميگردد. اگر بردار وزن نرونها و بردار ورودي فاصلهشان گسترش پيدا كند وزن نرون هاي وروديها نيز افزايش يافته وخروجي 0.5 خواهد گرديد.
فرض كنيد كه يك بردار ورودي اوليه نزديك به بردار pi داريم. يكي از بردارهاي ورودي را از ميان جفت بردارهاي هدف و ورودي را براي طراحي وزنهاي لايه اول استفاده ميكنيم. اين ورودي p يك خروجي ai از لايه اول را توليد ميكند كه به يك نزديك باشد. اين خروجي لايه اول ، خروجي در لايه دوم ايجاد ميكند كه به ti نزديك باشد كه اين ti يكي از بردارهاي هدف استفاده شده براي شكل دادن وزن هاي لايه دوم است.
انتخاب مقدار بزرگ براي پارامتر spread منجر به ايجاد ناحيه وسيعي در اطراف بردار ورودي ميشود جايي كه پاسخهاي نرون هاي لايه اول، خروجيهاي مهمتري را توليد ميكند. اگر پارامتر spread را كوچك انتخاب نماييم شيب تابع radial basis زياد ميشود در نتيجه نرون با بردار وزن نزديك تر به ورودي، نسبت به ساير نرونها، خروجي وسيعتري توليد خواهد كرد .
هرچقدر كه پراكندگي بيشتر باشد شيب توابع radial basis صاف تر شده وممكن است چند نرون مختلف به يك بردار ورودي جواب دهند (مقدارشان شبيه هم شود) و شبكه به گونهاي عمل ميكند كه بين بردارهاي هدفي كه طرح بردار وروديشان به بردار ورودي جديد شبيهتر است ميانگين وزندار گيرد. به عبارتي ديگر هر چقدر كه پارامتر spread بزرگتر شود نرونهاي بيشتري در اين ميانگين گرفتن شركت ميكنند و باعث ميشود توابع شبكه شيب شان صافتر و نرمتر گردد.
|
با سلام و تشکر فراوان از شما،
خواستم خواهش کنم اگر منبعی در این مورد دارید معرفی کنید. چون من برای تحقیق می خوام و احتیاج به مطالب بیشتری دارم!!