نمايش پست تنها
قديمي ۰۴-۸-۱۳۹۲, ۰۶:۵۸ بعد از ظهر   #9 (لینک دائم)
raha_hakhamanesh Male
Super Moderator
 
آواتار raha_hakhamanesh
 
تاريخ عضويت: خرداد ۱۳۸۷
محل سكونت: دنیا
پست ها: 281
تشكرها: 28
253 تشكر در 147 پست
My Mood: Zodranj
پيش فرض

نقل قول:
نوشته اصلي بوسيله dbdb2458 نمايش پست
The results suggest that the proposed Bayesian-LSSVM has stronger generalization ability than does BP-ANN in small sample data modeling.
The weakness of conventional ERM, on which BP-ANN is based, was exposed.
Values generated using a gradient descent algorithm fell easily into local optimum. However, the proposed model was equivalent to solving convex quadratic programming with linear constraints, and the solution was unique and global optimum.

منظور از generalization و gradient descent algorithm fell easily into local optimum چیه؟
ممنونم
ability
generalization
روش ارائه شده قدرت تعمیم بیشتری در مدلسازی داده های نمونه کوچک را دارد.
یعنی: روش ارائه شده می تواند نتایج بهتری در داده های با نمونه کم داشته باشه بعبارتی وقتی بر حسب مشکلات، مسئله دچار کمبود نمونه آموزشی است این روش کارآمدتر است.

Values generated using a gradient descent algorithm fell easily into local optimum
مقادیر تولید شده بوسیله الگوریتم Gradient Descent بسادگی در بهینه محلی به دام می افتد.
یعنی این روش توانایی این را ندارد که از بهینه محلی فرار کند دقیقا مثل آن چیزی که در الگوریتم ژنتیک با جهش سعی می کنیم از آن جلوگیری کنیم. بعبارتی در یک رویه تکراری در حال بهبود نتایج هستیم که این بهبود نتایج ممکن است منجر به رسیدن به یک قله محلی شود در حالیکه ما علاقه مندیم به بهینه عمومی برسیم لذا این جمله صریحا بیان می کند که Gradient Descent نمی تواند از به دام افتادن در بهینه محلی جلوگیری کند (که البته بدیهی است چون دانشی ندارد)

موفق باشید
__________________
.
.
.
برای تشکر دکمه مخصوص وجود دارد لطفا پست هرز ایجاد نکنید
.
.
اینقدر از دسترسی نداشتن به مقاله شیون نکنید

مقالات انگلیسی: ایران سای (ISI, IEEE, ACM)
مقالات فارسی: سیویلیکا (کنفرانس داخلی)
مقالات فارسی: مگ ایران (ژورنالهای داخلی)
raha_hakhamanesh آفلاين است   پاسخ با نقل قول
از raha_hakhamanesh تشكر كرده است:
dbdb2458 (۰۴-۸-۱۳۹۲)