Artificial Intelligence - هوش مصنوعی  
انجمن را در گوگل محبوب کنيد :

بازگشت   Artificial Intelligence - هوش مصنوعی > مقالات و اسلاید ها > مقالات و اسلایدهای فارسی مرتبط با هوش مصنوعی


 
تبليغات سايت
Iranian Association for the Advancement of Artificial Intelligence
ارسال تاپيک جديد  پاسخ
 
LinkBack ابزارهاي تاپيک نحوه نمايش
قديمي ۱۰-۱-۱۳۸۹, ۰۹:۵۸ قبل از ظهر   #1 (لینک دائم)
Administrator
 
آواتار Astaraki
 
تاريخ عضويت: خرداد ۱۳۸۷
محل سكونت: تهران-کرج!
پست ها: 3,465
تشكرها: 754
16,337 تشكر در 3,127 پست
My Mood: Mehrabon
ارسال پيغام Yahoo به Astaraki
Cool تشخيص اثرانگشت بر اساس فـ.يـ.لـ.تر گبور و تبديل fld يا rfld

تشخيص اثرانگشت بر اساس فـ.يـ.لـ.تر گبور و تبديل FLD يا RFLD

خلاصه مقاله:
امروزه اثر انگشت بطور فراوان در سيستمهاي تاييد و تشخيص هويت افراد استفاده مي شود. در اين مقاله يك روش جديد استخراج ويژگي بر اساس فـ.يـ.لـ.تر گبور و تبديل FLD و RFLD به منظور تشخيص هويت ارايه شده است . روش پيشنهاي بر روي تصوير هاي پايگاه داده biolab آزمايش شده است . در اين مقاله ، نتايج با استفاده از دو كلاس بندي كننده نزديكترين مركز دسته در حالت Leave One Out و K نزديكترين همسايه مقايسه مي شوند . آزمايش ها نشان مي دهند بيشترين صحت تشخيص در روش نزديكترين مركز دسته ، با اعمال تبديل RFLD بر ويژگي هاي حاصل از گبور در 4 جهت بدست مي آيد . در صد صحت در اين حالت برابر با 95،2 مي باشد كه در مقايسه با بردار ويژگي حاصل از فـ.يـ.لـ.تر گبور در 4 جهت و تبديل PCA به مقدار 10% افزايش يافته است . همچنين طبق نتايج بدست آمده در روش K ، نزديكترين همسايه ، با اعمال هر يك از تبديل هاي RFLD يا FLD بر ويژگي هاي حاصل از فـ.يـ.لـ.تر گبور در 4 جهت و تبديل PCA ، صحت تشخيص از 81,9% به 100% افزايش مي يابد.

كلمات كليدي:
اثرانگشت، استخراج ويژگي، فـ.يـ.لـ.ترهاي گبور، تبديل‌ FLD، تبديل‌ RFLD
فايل ضميمه
نوع فايل: pdf ICMVIP05_070_381915.pdf (160.1 كيلو بايت, 479 نمايش)

ويرايش شده توسط Astaraki; ۱۰-۱-۱۳۸۹ در ساعت ۱۰:۱۱ قبل از ظهر
Astaraki آفلاين است   پاسخ با نقل قول
از Astaraki تشكر كرده اند:
aminsh65 (۱۱-۲۰-۱۳۸۹), dbdb2458 (۰۴-۸-۱۳۹۲)

  #ADS
نشان دهنده تبلیغات
تبليغگر
 
 
 
تاريخ عضويت: -
محل سكونت: -
سن: 2010
پست ها: -
 

نشان دهنده تبلیغات is online  
قديمي ۰۴-۸-۱۳۹۲, ۰۴:۰۹ بعد از ظهر   #2 (لینک دائم)
عضو فعال
 
آواتار dbdb2458
 
تاريخ عضويت: خرداد ۱۳۹۲
پست ها: 17
تشكرها: 9
0 تشكر در 0 پست
پيش فرض

سلام
ممنون از فایلی که آپلود کردید
میتونم یه سری اطلاعات راجع به data mining و روش leave one out بگیرم؟
ممنون
dbdb2458 آفلاين است   پاسخ با نقل قول
قديمي ۰۴-۸-۱۳۹۲, ۰۴:۱۱ بعد از ظهر   #3 (لینک دائم)
عضو فعال
 
آواتار dbdb2458
 
تاريخ عضويت: خرداد ۱۳۹۲
پست ها: 17
تشكرها: 9
0 تشكر در 0 پست
پيش فرض

سلام
ممنون از فایلی که آپلود کردید
میتونم یه سری اطلاعات راجع به data mining و روش leave one out بگیرم؟
ممنون
dbdb2458 آفلاين است   پاسخ با نقل قول
قديمي ۰۴-۸-۱۳۹۲, ۰۵:۳۴ بعد از ظهر   #4 (لینک دائم)
Super Moderator
 
آواتار raha_hakhamanesh
 
تاريخ عضويت: خرداد ۱۳۸۷
محل سكونت: دنیا
پست ها: 281
تشكرها: 28
253 تشكر در 147 پست
My Mood: Zodranj
پيش فرض

نقل قول:
نوشته اصلي بوسيله dbdb2458 نمايش پست
سلام
ممنون از فایلی که آپلود کردید
میتونم یه سری اطلاعات راجع به data mining و روش leave one out بگیرم؟
ممنون

با سلام
سوالتون رو مطرح کنید دوستان چنانچه در توانشان باشد پاسخ خواهند

دقیقا چه اطلاعاتی درباره داده کاوی می خواهید؟
چه سوالی درباره روش Leave-One-Subject-Out دارید؟


ضمنا این تاپیک مناسب این سوالها نیست برای سوال اول به بخش داده کاوی و سوال دوم بخش یادگیری مراجعه کنید


موفق باشید
.
__________________
.
.
.
برای تشکر دکمه مخصوص وجود دارد لطفا پست هرز ایجاد نکنید
.
.
اینقدر از دسترسی نداشتن به مقاله شیون نکنید

مقالات انگلیسی: ایران سای (ISI, IEEE, ACM)
مقالات فارسی: سیویلیکا (کنفرانس داخلی)
مقالات فارسی: مگ ایران (ژورنالهای داخلی)
raha_hakhamanesh آفلاين است   پاسخ با نقل قول
از raha_hakhamanesh تشكر كرده است:
dbdb2458 (۰۴-۸-۱۳۹۲)
قديمي ۰۴-۸-۱۳۹۲, ۰۵:۳۷ بعد از ظهر   #5 (لینک دائم)
عضو فعال
 
آواتار dbdb2458
 
تاريخ عضويت: خرداد ۱۳۹۲
پست ها: 17
تشكرها: 9
0 تشكر در 0 پست
پيش فرض

یه مقاله دارم شبیه سازی میکنم که توش نوشته
A small sample modeling algorithm for grid IFFs
(Bayesian-LSSVM) was proposed. Training samples
and testing samples were chosen by using the leave one
out (LOO) method

میخام بدونم یعنی چی؟
dbdb2458 آفلاين است   پاسخ با نقل قول
قديمي ۰۴-۸-۱۳۹۲, ۰۵:۵۰ بعد از ظهر   #6 (لینک دائم)
Super Moderator
 
آواتار raha_hakhamanesh
 
تاريخ عضويت: خرداد ۱۳۸۷
محل سكونت: دنیا
پست ها: 281
تشكرها: 28
253 تشكر در 147 پست
My Mood: Zodranj
پيش فرض

نقل قول:
نوشته اصلي بوسيله dbdb2458 نمايش پست
یه مقاله دارم شبیه سازی میکنم که توش نوشته
A small sample modeling algorithm for grid IFFs
(Bayesian-LSSVM) was proposed. Training samples
and testing samples were chosen by using the leave one
out (LOO) method

میخام بدونم یعنی چی؟

با سلام
روش Leave-One-Subject-Out روش متداولی است که وقتی دیتا به اندازه کافی نداریم یا مجموعه داده ها کوچک هستند از این روش استفاده می شود در این روش

یک عضو از مجموعه را بعنوان داده تست و بقیه داده های بعنوان داده های آموزشی در نظر می گیریم و نتیجه را ارزیابی می کنیم سپس
عضو دیگری را بعنوان داده تست درنظر می گیریم و بقیه بعنوان داده آموزشی و نتیجه را ارزیابی می کنیم
به همین ترتیب کار را تکرار می کنیم تا همه داده ها حداقل یکبار بعنوان داده تست در نظر گرفته شود و میانگین نتایج به عنوان نتیجه این روش معرفی می شود

مثال
20 داده اثرانگشت دارم می خواهم ببینم در کدام گروه از دسته بندی روش Henry قرار می گیرند.
ابتدا نمونه شماره 1 را بعنوان تست و 19 مورد شماره 2 تا 20 را بعنوان آموزش انتخاب میکنم و نتیجه را ثبت می کنیم
سپس داده شماره 2 را بعنوان تست و بقیه را بعنوان آموزش در نظر گرفته و نتیجه را ثبت می کنیم
این کار را ادامه می دهیم تا به داده 20 برسیم و آن را بعنوان تست و بقیه را بعنوان آموزش در نظر گرفته و نتیجه را ثبت می کنیم
پس ما 20 بار یک الگوریتم را با این داده ها آزمایش کرده ایم میانگین آنها نتیجه روش مان خواهد بود.

همچنین توصیه می کنم این صفحه ویکی را ببینید http://en.wikipedia.org/wiki/Cross-v...on_(statistics)

موفق باشید
.
__________________
.
.
.
برای تشکر دکمه مخصوص وجود دارد لطفا پست هرز ایجاد نکنید
.
.
اینقدر از دسترسی نداشتن به مقاله شیون نکنید

مقالات انگلیسی: ایران سای (ISI, IEEE, ACM)
مقالات فارسی: سیویلیکا (کنفرانس داخلی)
مقالات فارسی: مگ ایران (ژورنالهای داخلی)
raha_hakhamanesh آفلاين است   پاسخ با نقل قول
از raha_hakhamanesh تشكر كرده است:
dbdb2458 (۰۴-۸-۱۳۹۲)
قديمي ۰۴-۸-۱۳۹۲, ۰۵:۵۳ بعد از ظهر   #7 (لینک دائم)
عضو فعال
 
آواتار dbdb2458
 
تاريخ عضويت: خرداد ۱۳۹۲
پست ها: 17
تشكرها: 9
0 تشكر در 0 پست
پيش فرض

خیلی خیلی خیلی خیلی ممنون
اگه تا یه هفته هم دنبالش میگشم نمی تونستم مفهومش رو بفهمم
راستش من نمیخام زیاد روی این قضه کار کنم فقط مفهومش برام مهم بود
ولی یه سری سوالای دیگه هم دارم میتونم مطرح کنم ؟
dbdb2458 آفلاين است   پاسخ با نقل قول
قديمي ۰۴-۸-۱۳۹۲, ۰۶:۴۱ بعد از ظهر   #8 (لینک دائم)
عضو فعال
 
آواتار dbdb2458
 
تاريخ عضويت: خرداد ۱۳۹۲
پست ها: 17
تشكرها: 9
0 تشكر در 0 پست
پيش فرض

The results suggest that
the proposed Bayesian-LSSVM has stronger generalization
ability than does BP-ANN in small sample data modeling. The
weakness of conventional ERM, on which BP-ANN is based,
was exposed. Values generated using a gradient descent algorithm fell easily into local optimum. However, the proposed
model was equivalent to solving convex quadratic programming with linear constraints, and the solution was unique and
global optimum.

منظور از generalization و gradient descent algorithm fell easily into local optimum چیه؟
ممنونم
ability
dbdb2458 آفلاين است   پاسخ با نقل قول
قديمي ۰۴-۸-۱۳۹۲, ۰۶:۵۸ بعد از ظهر   #9 (لینک دائم)
Super Moderator
 
آواتار raha_hakhamanesh
 
تاريخ عضويت: خرداد ۱۳۸۷
محل سكونت: دنیا
پست ها: 281
تشكرها: 28
253 تشكر در 147 پست
My Mood: Zodranj
پيش فرض

نقل قول:
نوشته اصلي بوسيله dbdb2458 نمايش پست
The results suggest that the proposed Bayesian-LSSVM has stronger generalization ability than does BP-ANN in small sample data modeling.
The weakness of conventional ERM, on which BP-ANN is based, was exposed.
Values generated using a gradient descent algorithm fell easily into local optimum. However, the proposed model was equivalent to solving convex quadratic programming with linear constraints, and the solution was unique and global optimum.

منظور از generalization و gradient descent algorithm fell easily into local optimum چیه؟
ممنونم
ability
generalization
روش ارائه شده قدرت تعمیم بیشتری در مدلسازی داده های نمونه کوچک را دارد.
یعنی: روش ارائه شده می تواند نتایج بهتری در داده های با نمونه کم داشته باشه بعبارتی وقتی بر حسب مشکلات، مسئله دچار کمبود نمونه آموزشی است این روش کارآمدتر است.

Values generated using a gradient descent algorithm fell easily into local optimum
مقادیر تولید شده بوسیله الگوریتم Gradient Descent بسادگی در بهینه محلی به دام می افتد.
یعنی این روش توانایی این را ندارد که از بهینه محلی فرار کند دقیقا مثل آن چیزی که در الگوریتم ژنتیک با جهش سعی می کنیم از آن جلوگیری کنیم. بعبارتی در یک رویه تکراری در حال بهبود نتایج هستیم که این بهبود نتایج ممکن است منجر به رسیدن به یک قله محلی شود در حالیکه ما علاقه مندیم به بهینه عمومی برسیم لذا این جمله صریحا بیان می کند که Gradient Descent نمی تواند از به دام افتادن در بهینه محلی جلوگیری کند (که البته بدیهی است چون دانشی ندارد)

موفق باشید
__________________
.
.
.
برای تشکر دکمه مخصوص وجود دارد لطفا پست هرز ایجاد نکنید
.
.
اینقدر از دسترسی نداشتن به مقاله شیون نکنید

مقالات انگلیسی: ایران سای (ISI, IEEE, ACM)
مقالات فارسی: سیویلیکا (کنفرانس داخلی)
مقالات فارسی: مگ ایران (ژورنالهای داخلی)
raha_hakhamanesh آفلاين است   پاسخ با نقل قول
از raha_hakhamanesh تشكر كرده است:
dbdb2458 (۰۴-۸-۱۳۹۲)
قديمي ۰۴-۸-۱۳۹۲, ۰۷:۰۷ بعد از ظهر   #10 (لینک دائم)
عضو فعال
 
آواتار dbdb2458
 
تاريخ عضويت: خرداد ۱۳۹۲
پست ها: 17
تشكرها: 9
0 تشكر در 0 پست
پيش فرض

چطوری باید دو تا الگوریتم رو با هم مقایسه کرد؟
روش support vector regression رو میشه واسه پیش بینی یه سری زمانی هم استفاده کرد؟
چه فرقی بین SVM و SVR هست؟

(( First, the LSSVM regression machine established a nonlinear mapping function ,
and then the input space was mapped into higher dimensional
feature space-Euclidean space or Hibert space. The input data
were classified by optimal linear transformation, and the decision function could be obtained based on the transformed data
in feature space. Thus, ))

این جمله از مقالست و میشه بگید چرا فضای ویژگی رو میبره به یه فضای با ابعاد بالاتر؟
dbdb2458 آفلاين است   پاسخ با نقل قول
پاسخ



كاربران در حال ديدن تاپيک: 1 (0 عضو و 1 مهمان)
 

قوانين ارسال
You may not post new threads
You may not post replies
You may not post attachments
You may not edit your posts

BB code is فعال
شکلکها فعال است
كد [IMG] فعال است
كدهاي HTML غير فعال است
Trackbacks are فعال
Pingbacks are فعال
Refbacks are فعال




زمان محلي شما با تنظيم GMT +3.5 هم اکنون ۱۰:۰۵ بعد از ظهر ميباشد.


Powered by vBulletin® Version 3.8.3
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Search Engine Friendly URLs by vBSEO 3.1.0 ©2007, Crawlability, Inc.

Teach and Learn at Hexib | Sponsored by www.Syavash.com and Product In Review

استفاده از مطالب انجمن در سایر سایت ها، تنها با ذکر انجمن هوش مصنوعي به عنوان منبع و لینک مستقیم به خود مطلب مجاز است

Inactive Reminders By Icora Web Design