Artificial Intelligence - هوش مصنوعی  
انجمن را در گوگل محبوب کنيد :

بازگشت   Artificial Intelligence - هوش مصنوعی > محاسبات نرم > شبکه های عصبی (Neural Networks)


 
تبليغات سايت
Iranian Association for the Advancement of Artificial Intelligence
ارسال تاپيک جديد  پاسخ
 
LinkBack ابزارهاي تاپيک نحوه نمايش
قديمي ۰۴-۳۰-۱۳۹۱, ۰۲:۴۴ بعد از ظهر   #1 (لینک دائم)
عضو جدید
 
آواتار Intelligent
 
تاريخ عضويت: خرداد ۱۳۹۱
پست ها: 2
تشكرها: 1
1 تشكر در 1 پست
Question رگرسیون عمومی شبکه عصبی

!!!!.مطلب در مورد رگرسیون عمومی شبکه عصبی GRNN(general regression neural network؟؟؟
Intelligent آفلاين است   پاسخ با نقل قول
از Intelligent تشكر كرده است:
vahab_asefi (۰۵-۲-۱۳۹۱)

  #ADS
نشان دهنده تبلیغات
تبليغگر
 
 
 
تاريخ عضويت: -
محل سكونت: -
سن: 2010
پست ها: -
 

نشان دهنده تبلیغات is online  
قديمي ۰۴-۳۱-۱۳۹۱, ۰۵:۳۳ بعد از ظهر   #2 (لینک دائم)
عضو فوق فعال
 
آواتار mansor50
 
تاريخ عضويت: خرداد ۱۳۹۰
محل سكونت: مشهد
پست ها: 197
تشكرها: 2
48 تشكر در 42 پست
My Mood: Sepasgozar
پيش فرض

شبکه GRNN
شبكه هاي عصبي GRNN اغلب به عنوان توابع تخمين استفاده ميشوند. كه شامل يك لايه Radial Basis و يك لايه خطي ويژه ميباشد.
شبكه عصبي GRNN كه در زير نشان داده شده است شبيه به شبكه هاي Radial basis ميباشد كه داراي تفاوتهايي در لايه است.

همانطور در شكل بالا مشاهده مي‌كنيد تابع Nprod يك بردار( n^2 ) شامل s^2مقدار توليد مي‌كند. كه اين مقادير حاصل ضرب نقطه‌اي 〖LW〗^2.1 در بردار ورودي a^1 مي‌باشند. كه همه مقادبر بردار حاصل به دليل جمع مقادير a^1 نرمال است.
لايه اول شبكه GRRN دقيقاً شبيه شبكه RB است كه داراي تعدادي نرون است كه با بردارهاي ورودي/ هدف (p) مقدار دهي مي‌شود. در لايه اول وزنها با مقدار P’ و بردارb^1 با بردار ستوني كه داراي مقدار spread/0.8326 است مقداردهي اوليه مي‌شوند كه البته مقدار Spread قابل تغيير است.
در لايه اول وزن هر نرون فاصله برداري بين بردار وزن با بردار ورودي است كه توسط تابع ||dist|| محاسبه مي‌شود. همچنين نرونهاي ورودي شبكه از طريق بردار ورديهاي وزندار و باياس كه توسط تابع nprod محاسبه مي‌شود توليد مي‌شود. نرون هاي خروجي هم همان وروديهاي شبكه هستند كه توسط radbas انتقال داده شده‌اند.
در شبكه GRNN اگر بردار ورودي و بردار وزن با هم برابر باشند بردار وزنهاي ورودي صفر خواهد شد و خروجي يك مي‌گردد. اگر بردار وزن نرونها و بردار ورودي فاصله‌شان گسترش پيدا كند وزن نرون هاي وروديها نيز افزايش يافته وخروجي 0.5 خواهد گرديد.
فرض كنيد كه يك بردار ورودي اوليه نزديك به بردار Pi داريم. يكي از بردارهاي ورودي را از ميان جفت بردارهاي هدف و ورودي را براي طراحي وزنهاي لايه اول استفاده مي‌كنيم. اين ورودي P يك خروجي ai از لايه اول را توليد مي‌كند كه به يك نزديك باشد. اين خروجي لايه اول ، خروجي در لايه دوم ايجاد مي‌كند كه به ti نزديك باشد كه اين ti يكي از بردارهاي هدف استفاده شده براي شكل دادن وزن هاي لايه دوم است.
انتخاب مقدار بزرگ براي پارامتر Spread منجر به ايجاد ناحيه وسيعي در اطراف بردار ورودي مي‌شود جايي كه پاسخهاي نرون هاي لايه اول، خروجيهاي مهم‌تري را توليد مي‌كند. اگر پارامتر Spread را كوچك انتخاب نماييم شيب تابع Radial Basis زياد مي‌شود در نتيجه نرون با بردار وزن نزديك تر به ورودي، نسبت به ساير نرونها، خروجي وسيع‌تري توليد خواهد كرد .
هرچقدر كه پراكندگي بيشتر باشد شيب توابع Radial Basis صاف تر شده وممكن است چند نرون مختلف به يك بردار ورودي جواب دهند (مقدارشان شبيه هم شود) و شبكه به گونه‌اي عمل مي‌كند كه بين بردارهاي هدفي كه طرح بردار وروديشان به بردار ورودي جديد شبيه‌تر است ميانگين وزندار گيرد. به عبارتي ديگر هر چقدر كه پارامتر spread بزرگ‌تر شود نرونهاي بيشتري در اين ميانگين گرفتن شركت مي‌كنند و باعث مي‌شود توابع شبكه شيب شان صاف‌تر و نرم‌تر گردد.
mansor50 آفلاين است   پاسخ با نقل قول
از mansor50 تشكر كرده اند:
AmirHosseinMa (۱۲-۲۱-۱۳۹۱), Intelligent (۰۵-۲-۱۳۹۱), vahab_asefi (۰۵-۲-۱۳۹۱)
قديمي ۰۵-۲-۱۳۹۱, ۰۳:۳۰ قبل از ظهر   #3 (لینک دائم)
عضو جدید
 
آواتار vahab_asefi
 
تاريخ عضويت: مرداد ۱۳۹۰
پست ها: 6
تشكرها: 6
1 تشكر در 1 پست
پيش فرض

نقل قول:
نوشته اصلي بوسيله mansor50 نمايش پست
شبکه grnn
شبكه هاي عصبي grnn اغلب ...
با سلام و تشکر از توضیحات مفید شما دو سؤال داشتم
اول این که نحوه ی استخراج فرمول به دست آمده از این شبکه ها در متلب چگونه است؟ (البته من تاکنون این شبکه ها را در متلب اجرا نکرده ام و فقط می خواستم که اگر امکان خروجی گیری از آن ها هست دنبال تکمیل مبانی نظری و اجرایی آن باشم).
و دوم آن که آیا داده های ورودی برای تخمین درست باید دارای تعداد و شرایط خاصی باشند؟
متشکرم
__________________
پیش از آن که واپسین نفس را برآورم؛ پیش از آن که پرده فرواُفتد؛ پیش از پژمردن آخرین گل؛ برآنم که زندگی کنم؛ برآنم که عشق بورزم؛ برآنم که...باشم.
(احمد شاملو؛ برگردان از Margot Bickel)
vahab_asefi آفلاين است   پاسخ با نقل قول
قديمي ۰۵-۲-۱۳۹۱, ۰۶:۱۴ بعد از ظهر   #4 (لینک دائم)
عضو جدید
 
آواتار Intelligent
 
تاريخ عضويت: خرداد ۱۳۹۱
پست ها: 2
تشكرها: 1
1 تشكر در 1 پست
پيش فرض

نقل قول:
نوشته اصلي بوسيله mansor50 نمايش پست
شبکه grnn
شبكه هاي عصبي grnn اغلب به عنوان توابع تخمين استفاده ميشوند. كه شامل يك لايه radial basis و يك لايه خطي ويژه ميباشد.
شبكه عصبي grnn كه در زير نشان داده شده است شبيه به شبكه هاي radial basis ميباشد كه داراي تفاوتهايي در لايه است.

همانطور در شكل بالا مشاهده مي‌كنيد تابع nprod يك بردار( n^2 ) شامل s^2مقدار توليد مي‌كند. كه اين مقادير حاصل ضرب نقطه‌اي 〖lw〗^2.1 در بردار ورودي a^1 مي‌باشند. كه همه مقادبر بردار حاصل به دليل جمع مقادير a^1 نرمال است.
لايه اول شبكه grrn دقيقاً شبيه شبكه rb است كه داراي تعدادي نرون است كه با بردارهاي ورودي/ هدف (p) مقدار دهي مي‌شود. در لايه اول وزنها با مقدار p’ و بردارb^1 با بردار ستوني كه داراي مقدار spread/0.8326 است مقداردهي اوليه مي‌شوند كه البته مقدار spread قابل تغيير است.
در لايه اول وزن هر نرون فاصله برداري بين بردار وزن با بردار ورودي است كه توسط تابع ||dist|| محاسبه مي‌شود. همچنين نرونهاي ورودي شبكه از طريق بردار ورديهاي وزندار و باياس كه توسط تابع nprod محاسبه مي‌شود توليد مي‌شود. نرون هاي خروجي هم همان وروديهاي شبكه هستند كه توسط radbas انتقال داده شده‌اند.
در شبكه grnn اگر بردار ورودي و بردار وزن با هم برابر باشند بردار وزنهاي ورودي صفر خواهد شد و خروجي يك مي‌گردد. اگر بردار وزن نرونها و بردار ورودي فاصله‌شان گسترش پيدا كند وزن نرون هاي وروديها نيز افزايش يافته وخروجي 0.5 خواهد گرديد.
فرض كنيد كه يك بردار ورودي اوليه نزديك به بردار pi داريم. يكي از بردارهاي ورودي را از ميان جفت بردارهاي هدف و ورودي را براي طراحي وزنهاي لايه اول استفاده مي‌كنيم. اين ورودي p يك خروجي ai از لايه اول را توليد مي‌كند كه به يك نزديك باشد. اين خروجي لايه اول ، خروجي در لايه دوم ايجاد مي‌كند كه به ti نزديك باشد كه اين ti يكي از بردارهاي هدف استفاده شده براي شكل دادن وزن هاي لايه دوم است.
انتخاب مقدار بزرگ براي پارامتر spread منجر به ايجاد ناحيه وسيعي در اطراف بردار ورودي مي‌شود جايي كه پاسخهاي نرون هاي لايه اول، خروجيهاي مهم‌تري را توليد مي‌كند. اگر پارامتر spread را كوچك انتخاب نماييم شيب تابع radial basis زياد مي‌شود در نتيجه نرون با بردار وزن نزديك تر به ورودي، نسبت به ساير نرونها، خروجي وسيع‌تري توليد خواهد كرد .
هرچقدر كه پراكندگي بيشتر باشد شيب توابع radial basis صاف تر شده وممكن است چند نرون مختلف به يك بردار ورودي جواب دهند (مقدارشان شبيه هم شود) و شبكه به گونه‌اي عمل مي‌كند كه بين بردارهاي هدفي كه طرح بردار وروديشان به بردار ورودي جديد شبيه‌تر است ميانگين وزندار گيرد. به عبارتي ديگر هر چقدر كه پارامتر spread بزرگ‌تر شود نرونهاي بيشتري در اين ميانگين گرفتن شركت مي‌كنند و باعث مي‌شود توابع شبكه شيب شان صاف‌تر و نرم‌تر گردد.
با سلام و تشکر فراوان از شما،
خواستم خواهش کنم اگر منبعی در این مورد دارید معرفی کنید. چون من برای تحقیق می خوام و احتیاج به مطالب بیشتری دارم!!
Intelligent آفلاين است   پاسخ با نقل قول
پاسخ



كاربران در حال ديدن تاپيک: 1 (0 عضو و 1 مهمان)
 

قوانين ارسال
You may not post new threads
You may not post replies
You may not post attachments
You may not edit your posts

BB code is فعال
شکلکها فعال است
كد [IMG] فعال است
كدهاي HTML غير فعال است
Trackbacks are فعال
Pingbacks are فعال
Refbacks are فعال




زمان محلي شما با تنظيم GMT +3.5 هم اکنون ۰۹:۲۷ بعد از ظهر ميباشد.


Powered by vBulletin® Version 3.8.3
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Search Engine Friendly URLs by vBSEO 3.1.0 ©2007, Crawlability, Inc.

Teach and Learn at Hexib | Sponsored by www.Syavash.com and Product In Review

استفاده از مطالب انجمن در سایر سایت ها، تنها با ذکر انجمن هوش مصنوعي به عنوان منبع و لینک مستقیم به خود مطلب مجاز است

Inactive Reminders By Icora Web Design