نقل قول:
نوشته اصلي بوسيله astudio
سلام
ببینید انها تقریبا پشتش یک جور الهام گرفتن از شبکه های عصبی انسان و سلول های عصبی است.در سلول های عصبی انسان بااستفاده از واکنش هایی شیمیایی و از این قبیل بار در سلول جمع آوری می شود وقتی که سلول می خواهد سیگنالی را بفرستد با استفاده از مکانیزمی این بار را ناگهان در بستر ارتباطی تخلیه می کند و نا گهان شاهد افزایش ولتاژ لحظه ای هستیم.(البته این یک توجیح از نوع عملکرد سلولهای عصبی است) این افزایش از یک حد آستانه ای بالاتر است.همیشه همیشه هم سیگمویید را انتخاب نمی کنند این تابع حالت ساده شده توابعی مثل توابع نمایی است.استفاده از این توابع هم قطعا یکی از دلایلش نر مال بودن آنهاست. شبکه های مختلفی داریم مدل های مختلفی برای شبکه های عصبی ارائه شده.اما برای مثال می تونی به اینجا مراجعه کنی.
|
ممنون.
ولی پرسپترون یعنی چی؟نگفتین اون وزن ها رو نگه میداره و وقتی داده جدیدی بهش میدیم روی اون ها اعمال میکنه؟و اینکه تقسیم بندی شبکه به خطی و پرسپترون درسته؟