Artificial Intelligence - هوش مصنوعی

Artificial Intelligence - هوش مصنوعی (http://artificial.ir/intelligence/)
-   مقالات و اسلایدهای فارسی مرتبط با هوش مصنوعی (http://artificial.ir/intelligence/forum44.html)
-   -   تشخيص اثرانگشت بر اساس فـ.يـ.لـ.تر گبور و تبديل fld يا rfld (http://artificial.ir/intelligence/thread6899.html)

Astaraki ۱۰-۱-۱۳۸۹ ۰۹:۵۸ قبل از ظهر

تشخيص اثرانگشت بر اساس فـ.يـ.لـ.تر گبور و تبديل fld يا rfld
 
1(ها)ضميمه
تشخيص اثرانگشت بر اساس فـ.يـ.لـ.تر گبور و تبديل FLD يا RFLD

خلاصه مقاله:
امروزه اثر انگشت بطور فراوان در سيستمهاي تاييد و تشخيص هويت افراد استفاده مي شود. در اين مقاله يك روش جديد استخراج ويژگي بر اساس فـ.يـ.لـ.تر گبور و تبديل FLD و RFLD به منظور تشخيص هويت ارايه شده است . روش پيشنهاي بر روي تصوير هاي پايگاه داده biolab آزمايش شده است . در اين مقاله ، نتايج با استفاده از دو كلاس بندي كننده نزديكترين مركز دسته در حالت Leave One Out و K نزديكترين همسايه مقايسه مي شوند . آزمايش ها نشان مي دهند بيشترين صحت تشخيص در روش نزديكترين مركز دسته ، با اعمال تبديل RFLD بر ويژگي هاي حاصل از گبور در 4 جهت بدست مي آيد . در صد صحت در اين حالت برابر با 95،2 مي باشد كه در مقايسه با بردار ويژگي حاصل از فـ.يـ.لـ.تر گبور در 4 جهت و تبديل PCA به مقدار 10% افزايش يافته است . همچنين طبق نتايج بدست آمده در روش K ، نزديكترين همسايه ، با اعمال هر يك از تبديل هاي RFLD يا FLD بر ويژگي هاي حاصل از فـ.يـ.لـ.تر گبور در 4 جهت و تبديل PCA ، صحت تشخيص از 81,9% به 100% افزايش مي يابد.

كلمات كليدي:
اثرانگشت، استخراج ويژگي، فـ.يـ.لـ.ترهاي گبور، تبديل‌ FLD، تبديل‌ RFLD

dbdb2458 ۰۴-۸-۱۳۹۲ ۰۴:۰۹ بعد از ظهر

سلام
ممنون از فایلی که آپلود کردید
میتونم یه سری اطلاعات راجع به data mining و روش leave one out بگیرم؟
ممنون

dbdb2458 ۰۴-۸-۱۳۹۲ ۰۴:۱۱ بعد از ظهر

سلام
ممنون از فایلی که آپلود کردید
میتونم یه سری اطلاعات راجع به data mining و روش leave one out بگیرم؟
ممنون

raha_hakhamanesh ۰۴-۸-۱۳۹۲ ۰۵:۳۴ بعد از ظهر

نقل قول:

نوشته اصلي بوسيله dbdb2458 (پست 29389)
سلام
ممنون از فایلی که آپلود کردید
میتونم یه سری اطلاعات راجع به data mining و روش leave one out بگیرم؟
ممنون


با سلام
سوالتون رو مطرح کنید دوستان چنانچه در توانشان باشد پاسخ خواهند

دقیقا چه اطلاعاتی درباره داده کاوی می خواهید؟
چه سوالی درباره روش Leave-One-Subject-Out دارید؟


ضمنا این تاپیک مناسب این سوالها نیست برای سوال اول به بخش داده کاوی و سوال دوم بخش یادگیری مراجعه کنید


موفق باشید
.

dbdb2458 ۰۴-۸-۱۳۹۲ ۰۵:۳۷ بعد از ظهر

یه مقاله دارم شبیه سازی میکنم که توش نوشته
A small sample modeling algorithm for grid IFFs
(Bayesian-LSSVM) was proposed. Training samples
and testing samples were chosen by using the leave one
out (LOO) method

میخام بدونم یعنی چی؟

raha_hakhamanesh ۰۴-۸-۱۳۹۲ ۰۵:۵۰ بعد از ظهر

نقل قول:

نوشته اصلي بوسيله dbdb2458 (پست 29392)
یه مقاله دارم شبیه سازی میکنم که توش نوشته
A small sample modeling algorithm for grid IFFs
(Bayesian-LSSVM) was proposed. Training samples
and testing samples were chosen by using the leave one
out (LOO) method

میخام بدونم یعنی چی؟


با سلام
روش Leave-One-Subject-Out روش متداولی است که وقتی دیتا به اندازه کافی نداریم یا مجموعه داده ها کوچک هستند از این روش استفاده می شود در این روش

یک عضو از مجموعه را بعنوان داده تست و بقیه داده های بعنوان داده های آموزشی در نظر می گیریم و نتیجه را ارزیابی می کنیم سپس
عضو دیگری را بعنوان داده تست درنظر می گیریم و بقیه بعنوان داده آموزشی و نتیجه را ارزیابی می کنیم
به همین ترتیب کار را تکرار می کنیم تا همه داده ها حداقل یکبار بعنوان داده تست در نظر گرفته شود و میانگین نتایج به عنوان نتیجه این روش معرفی می شود

مثال
20 داده اثرانگشت دارم می خواهم ببینم در کدام گروه از دسته بندی روش Henry قرار می گیرند.
ابتدا نمونه شماره 1 را بعنوان تست و 19 مورد شماره 2 تا 20 را بعنوان آموزش انتخاب میکنم و نتیجه را ثبت می کنیم
سپس داده شماره 2 را بعنوان تست و بقیه را بعنوان آموزش در نظر گرفته و نتیجه را ثبت می کنیم
این کار را ادامه می دهیم تا به داده 20 برسیم و آن را بعنوان تست و بقیه را بعنوان آموزش در نظر گرفته و نتیجه را ثبت می کنیم
پس ما 20 بار یک الگوریتم را با این داده ها آزمایش کرده ایم میانگین آنها نتیجه روش مان خواهد بود.

همچنین توصیه می کنم این صفحه ویکی را ببینید http://en.wikipedia.org/wiki/Cross-v...on_(statistics)

موفق باشید
.

dbdb2458 ۰۴-۸-۱۳۹۲ ۰۵:۵۳ بعد از ظهر

خیلی خیلی خیلی خیلی ممنون
اگه تا یه هفته هم دنبالش میگشم نمی تونستم مفهومش رو بفهمم
راستش من نمیخام زیاد روی این قضه کار کنم فقط مفهومش برام مهم بود
ولی یه سری سوالای دیگه هم دارم میتونم مطرح کنم ؟

dbdb2458 ۰۴-۸-۱۳۹۲ ۰۶:۴۱ بعد از ظهر

The results suggest that
the proposed Bayesian-LSSVM has stronger generalization
ability than does BP-ANN in small sample data modeling. The
weakness of conventional ERM, on which BP-ANN is based,
was exposed. Values generated using a gradient descent algorithm fell easily into local optimum. However, the proposed
model was equivalent to solving convex quadratic programming with linear constraints, and the solution was unique and
global optimum.

منظور از generalization و gradient descent algorithm fell easily into local optimum چیه؟
ممنونم
ability

raha_hakhamanesh ۰۴-۸-۱۳۹۲ ۰۶:۵۸ بعد از ظهر

نقل قول:

نوشته اصلي بوسيله dbdb2458 (پست 29397)
The results suggest that the proposed Bayesian-LSSVM has stronger generalization ability than does BP-ANN in small sample data modeling.
The weakness of conventional ERM, on which BP-ANN is based, was exposed.
Values generated using a gradient descent algorithm fell easily into local optimum. However, the proposed model was equivalent to solving convex quadratic programming with linear constraints, and the solution was unique and global optimum.

منظور از generalization و gradient descent algorithm fell easily into local optimum چیه؟
ممنونم
ability

generalization
روش ارائه شده قدرت تعمیم بیشتری در مدلسازی داده های نمونه کوچک را دارد.
یعنی: روش ارائه شده می تواند نتایج بهتری در داده های با نمونه کم داشته باشه بعبارتی وقتی بر حسب مشکلات، مسئله دچار کمبود نمونه آموزشی است این روش کارآمدتر است.

Values generated using a gradient descent algorithm fell easily into local optimum
مقادیر تولید شده بوسیله الگوریتم Gradient Descent بسادگی در بهینه محلی به دام می افتد.
یعنی این روش توانایی این را ندارد که از بهینه محلی فرار کند دقیقا مثل آن چیزی که در الگوریتم ژنتیک با جهش سعی می کنیم از آن جلوگیری کنیم. بعبارتی در یک رویه تکراری در حال بهبود نتایج هستیم که این بهبود نتایج ممکن است منجر به رسیدن به یک قله محلی شود در حالیکه ما علاقه مندیم به بهینه عمومی برسیم لذا این جمله صریحا بیان می کند که Gradient Descent نمی تواند از به دام افتادن در بهینه محلی جلوگیری کند (که البته بدیهی است چون دانشی ندارد)

موفق باشید

dbdb2458 ۰۴-۸-۱۳۹۲ ۰۷:۰۷ بعد از ظهر

چطوری باید دو تا الگوریتم رو با هم مقایسه کرد؟
روش support vector regression رو میشه واسه پیش بینی یه سری زمانی هم استفاده کرد؟
چه فرقی بین SVM و SVR هست؟

(( First, the LSSVM regression machine established a nonlinear mapping function ,
and then the input space was mapped into higher dimensional
feature space-Euclidean space or Hibert space. The input data
were classified by optimal linear transformation, and the decision function could be obtained based on the transformed data
in feature space. Thus, ))

این جمله از مقالست و میشه بگید چرا فضای ویژگی رو میبره به یه فضای با ابعاد بالاتر؟


زمان محلي شما با تنظيم GMT +3.5 هم اکنون ۰۶:۱۹ قبل از ظهر ميباشد.

Powered by vBulletin® Version 3.8.3
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Search Engine Friendly URLs by vBSEO 3.1.0 ©2007, Crawlability, Inc.