Artificial Intelligence - هوش مصنوعی

Artificial Intelligence - هوش مصنوعی (http://artificial.ir/intelligence/)
-   داده كاوی(Data mining) (http://artificial.ir/intelligence/forum61.html)
-   -   کمک فوری برای انجام داده کاوی در بانک و... (http://artificial.ir/intelligence/thread9263.html)

article ۰۸-۱۰-۱۳۹۰ ۰۲:۴۵ بعد از ظهر

نقل قول:

نوشته اصلي بوسيله aminkop (پست 19455)
سلام
ابتدا عذرخواهی بابت اینکه چند وقتی بود که نبودم و پیامتون را ندیدم.
بجاش سعی می کنم با یک راهکار عملی سریع و ساده سعی کنم یک دید مختصر نسبتا جالب پیدا کنین.

ابتدا یک توصیه تجربی برای پیش پردازش داده هاتون معمولا هر ویژگی که دارای اعداد یک بار تکرار شدنی است دور ریختنی است (مانند شماره پرسنلی, اعداد ترتیبی برای id, کد های تکرار نشدنی و ...) البته اگه این کار را هم انجام ندهید بعدا می توانید موارد بی اثر یا کم اثر را تشخیص دهید.

اگه مورد مطالعه شده خاصی مد نظرتون هست که بگید مرحله به مرحله جلو ببریمش (که صحیح تر هم این است که موارد مطالعه و عملی شده ای در حداقل یک مقاله را بررسی کرده باشید) اگر نه که مثلا برای شروع می توانید با پیدا کردن موارد outlier dtection یک تستی بکنی معمولا از روش های کلاسترینگ استفاده می کنن.

یک شروع عملی ساده:
0. ابتدا ویژگی های شاخصی که معمولا می تواند شامل تعداد تراکنش های حسابها و موارد منحصرا مالی را جدا کنید (این موارد بنظر می رسه می تونن یک الگوی خوبی برای رفتارهای خاص مالی هستند را نمایش بدهند.)
1. حالا شما برای شروع داده هاتون را (پس از تبدیل به فرمت CSV یا arff) وارد نرم افزار weka می کنین.
2. از preprocess فیل-تر RemoveUseless را انتخاب می کنی و Apply.
3. از Cluster مثلا الگوریتم DBScan را انتخاب می کنید.
--> نتیجه بدست آمده شامل چند مورد بدون خوشه است که این موارد مشکوک به وضعیت های غیر عادی از جمله کلاهبرداری می توانند باشند.(حالا اگر داده هاتون شامل ویژگی هایی که وجه تمایز یک کلاهبردار است یا اصلا مطمئن نیستید که کلاهبرداری انجام شده می تونید این موارد را زیر ذره بین ببرید که معمولا نشاندهنده یکسری حساب های با رفتار خاص است)

حتما از این نوع پیش بردن مساله تعجب کرده اید :106: خوب هدفم این بود که ترس شما برای انجام یک پروسه اینجوری بریزه. حالا شما در مرحله بعد می خواهید ویژگی های حرفه ای تری انتخاب کنید که واقعا کلاهبردارها مشخص بشن یا مسائلی را مانند طبقه بندی مشتریان از نظر رفتار مالی و این قبیل مسائل پیش ببرید که پس از کمی مطالعات جهت دار که انجام می دهید و سوال براتون پیش میاد می توانیم بررسی کنیم و جلو ببریم.

موفق باشید

سلام
چهطور میتونم تبدیل فرمت انجام بدم؟؟؟؟
من فایلم یه فایل sql میتونم ازش تو این برنامه استفاده کنم؟

article ۰۸-۱۰-۱۳۹۰ ۰۲:۵۴ بعد از ظهر

نقل قول:

نوشته اصلي بوسيله hony (پست 20814)
اگر تحلیل لینک بلد هستید می توان با ارتباط بین مشتریان و شعبه ها کلیک ها را استخراج کرد. اینها می توانند گزینه های تقلب باشند. یا با صفات کد شعبه، کد حساب یا زیر نوع حساب، بدهکار یا بستانکار در یک فیلد با علامت منفی و مبلغ و محصول را خوشه بندی یا قوانین انجمنی ان را بدست اورید و با استفاده از ان کشف تقلب کنید. در خوشه بندی به تعدادی خوشه تقسیم کنید و خوشه ای که تعداد رکوردهایش کم است مظنونان تقلب هستند. باید توجه کنید که صفات باید استانداردسازی شوند. یا با اسفاده از قوانینی انجمنی قوانینی که دارای سا÷ورت کم و کانفیدنس بالا با توجه به قوانین دیگر می تواند تقلب را کشف کرد. یا کار دیگر یک تحلیل رفتار مشتری یا فعالیت بانک را انجام دهید

ممنون اقای مهدی نصیری
برای اینکه بدهکار یا بستانکار رو بدست بیارم فقط از همین فیلدهایی که گفتید استفاده کنم یا فیلد های دیگه ای هم لازم؟؟؟
فقط از خوشه بندی استفاده کنم؟درخت تصمیم برای کشف جرایم کاربردی نداره؟بجز خوشه بندی از چه الگوریتم دیگه میشه استفاده کرد؟
در ضمن با عرض شرمندگی اگه بخام از weka استفاده کنم میتونم از فایل sql بعنولن ورودی استفاده کنم؟؟؟؟
خیییلی ممنون.

article ۰۸-۱۰-۱۳۹۰ ۰۲:۵۹ بعد از ظهر

نقل قول:

نوشته اصلي بوسيله hony (پست 20815)
اگر نمونه ای از داده را می توانید برای من ارسال کنید تا نظر قطعی تری بدم

نمونه داده دارم اما حجم زیادی داره! حدود 2 گیگ.اما فیلدهای این نمونه داده بصورت زیر:
اطلاعات گزارش اسنادی(کد شعبه،شماره ژورنال،کد حساب،کد تراکنش،کد زیر نوع حساب،بدهکار،بستانکار،نام صادرکننده)
(نوع حساب،مبلغ بریال،مبلغ ارز،شرح محصول،محصول،شرح حساب،کد دفتر کل، شماره حساب،شرح تراکنش،کد تراکنش،نام شعبه عمل کننده،کد شعبه،شماره ژورنال)

vahid_s0 ۰۸-۱۲-۱۳۹۰ ۰۶:۰۰ بعد از ظهر

سلام دوستان عزیز

من دانشجوی کارشناسی نرم افزار هستم و پروژه پایان ترم داده کاوی گرفتم(داده کاوی حفظ مشتری در بانک)خواهش میکنم منو راهنمایی کنید از کجا شروع کنم و نیازمند چه داده های هستم

article ۰۹-۲-۱۳۹۰ ۱۱:۰۷ قبل از ظهر

نقل قول:

نوشته اصلي بوسيله aminkop (پست 19455)
سلام
ابتدا عذرخواهی بابت اینکه چند وقتی بود که نبودم و پیامتون را ندیدم.
بجاش سعی می کنم با یک راهکار عملی سریع و ساده سعی کنم یک دید مختصر نسبتا جالب پیدا کنین.

ابتدا یک توصیه تجربی برای پیش پردازش داده هاتون معمولا هر ویژگی که دارای اعداد یک بار تکرار شدنی است دور ریختنی است (مانند شماره پرسنلی, اعداد ترتیبی برای id, کد های تکرار نشدنی و ...) البته اگه این کار را هم انجام ندهید بعدا می توانید موارد بی اثر یا کم اثر را تشخیص دهید.

اگه مورد مطالعه شده خاصی مد نظرتون هست که بگید مرحله به مرحله جلو ببریمش (که صحیح تر هم این است که موارد مطالعه و عملی شده ای در حداقل یک مقاله را بررسی کرده باشید) اگر نه که مثلا برای شروع می توانید با پیدا کردن موارد outlier dtection یک تستی بکنی معمولا از روش های کلاسترینگ استفاده می کنن.

یک شروع عملی ساده:
0. ابتدا ویژگی های شاخصی که معمولا می تواند شامل تعداد تراکنش های حسابها و موارد منحصرا مالی را جدا کنید (این موارد بنظر می رسه می تونن یک الگوی خوبی برای رفتارهای خاص مالی هستند را نمایش بدهند.)
1. حالا شما برای شروع داده هاتون را (پس از تبدیل به فرمت CSV یا arff) وارد نرم افزار weka می کنین.
2. از preprocess فیل-تر RemoveUseless را انتخاب می کنی و Apply.
3. از Cluster مثلا الگوریتم DBScan را انتخاب می کنید.
--> نتیجه بدست آمده شامل چند مورد بدون خوشه است که این موارد مشکوک به وضعیت های غیر عادی از جمله کلاهبرداری می توانند باشند.(حالا اگر داده هاتون شامل ویژگی هایی که وجه تمایز یک کلاهبردار است یا اصلا مطمئن نیستید که کلاهبرداری انجام شده می تونید این موارد را زیر ذره بین ببرید که معمولا نشاندهنده یکسری حساب های با رفتار خاص است)

حتما از این نوع پیش بردن مساله تعجب کرده اید :106: خوب هدفم این بود که ترس شما برای انجام یک پروسه اینجوری بریزه. حالا شما در مرحله بعد می خواهید ویژگی های حرفه ای تری انتخاب کنید که واقعا کلاهبردارها مشخص بشن یا مسائلی را مانند طبقه بندی مشتریان از نظر رفتار مالی و این قبیل مسائل پیش ببرید که پس از کمی مطالعات جهت دار که انجام می دهید و سوال براتون پیش میاد می توانیم بررسی کنیم و جلو ببریم.

موفق باشید

سلام.
من اگه بخوام داده هام وارد نرم افزار weka کنم از چه فرمت هایی میتونم استفاده کنم؟؟؟

mamali1988 ۰۹-۲۲-۱۳۹۰ ۰۳:۳۷ بعد از ظهر

سلام. در مورد deviation and outlier detecyion algorithm مطلب فارسی دارین که بتونم یه سمینار در مورد بدم؟

article ۱۰-۸-۱۳۹۰ ۱۰:۳۵ قبل از ظهر

نقل قول:

نوشته اصلي بوسيله aminkop (پست 19455)
سلام
ابتدا عذرخواهی بابت اینکه چند وقتی بود که نبودم و پیامتون را ندیدم.
بجاش سعی می کنم با یک راهکار عملی سریع و ساده سعی کنم یک دید مختصر نسبتا جالب پیدا کنین.

ابتدا یک توصیه تجربی برای پیش پردازش داده هاتون معمولا هر ویژگی که دارای اعداد یک بار تکرار شدنی است دور ریختنی است (مانند شماره پرسنلی, اعداد ترتیبی برای id, کد های تکرار نشدنی و ...) البته اگه این کار را هم انجام ندهید بعدا می توانید موارد بی اثر یا کم اثر را تشخیص دهید.

اگه مورد مطالعه شده خاصی مد نظرتون هست که بگید مرحله به مرحله جلو ببریمش (که صحیح تر هم این است که موارد مطالعه و عملی شده ای در حداقل یک مقاله را بررسی کرده باشید) اگر نه که مثلا برای شروع می توانید با پیدا کردن موارد outlier dtection یک تستی بکنی معمولا از روش های کلاسترینگ استفاده می کنن.

یک شروع عملی ساده:
0. ابتدا ویژگی های شاخصی که معمولا می تواند شامل تعداد تراکنش های حسابها و موارد منحصرا مالی را جدا کنید (این موارد بنظر می رسه می تونن یک الگوی خوبی برای رفتارهای خاص مالی هستند را نمایش بدهند.)
1. حالا شما برای شروع داده هاتون را (پس از تبدیل به فرمت CSV یا arff) وارد نرم افزار weka می کنین.
2. از preprocess فیل-تر RemoveUseless را انتخاب می کنی و Apply.
3. از Cluster مثلا الگوریتم DBScan را انتخاب می کنید.
--> نتیجه بدست آمده شامل چند مورد بدون خوشه است که این موارد مشکوک به وضعیت های غیر عادی از جمله کلاهبرداری می توانند باشند.(حالا اگر داده هاتون شامل ویژگی هایی که وجه تمایز یک کلاهبردار است یا اصلا مطمئن نیستید که کلاهبرداری انجام شده می تونید این موارد را زیر ذره بین ببرید که معمولا نشاندهنده یکسری حساب های با رفتار خاص است)

حتما از این نوع پیش بردن مساله تعجب کرده اید :106: خوب هدفم این بود که ترس شما برای انجام یک پروسه اینجوری بریزه. حالا شما در مرحله بعد می خواهید ویژگی های حرفه ای تری انتخاب کنید که واقعا کلاهبردارها مشخص بشن یا مسائلی را مانند طبقه بندی مشتریان از نظر رفتار مالی و این قبیل مسائل پیش ببرید که پس از کمی مطالعات جهت دار که انجام می دهید و سوال براتون پیش میاد می توانیم بررسی کنیم و جلو ببریم.

موفق باشید

سلام دوست عزيز .
من تمام اين كارهايي كه گفتيد انجام دادم و از روش kmeans براي خوشه بندي استفاده كردم اما زماني كه از دو خوشه استفاده ميكنم جواب مي ده اما براي سه تا خوشه از برنامه مياد بيرون وپيغام كم اوردن حافظه مي دهد.اين مشكل از كجاست؟

article ۱۰-۱۴-۱۳۹۰ ۰۹:۲۶ قبل از ظهر

نقل قول:

نوشته اصلي بوسيله aminkop (پست 19522)
سلام
1.بطور کلی که شما باید با پیش پردازش و بعد مباحث مربوط به feature selection ویژگی های مناسب را شناسایی کنید یا اینکه در کاربرد هایی از خبره استفاده می کنند حالا اگر بخواهید از بعضی تکنیک های طبقه بندی(مثلا درخت های تصمیم, چون خودشون معیار تفکیک دارند) یا در مواردی که کاهش ابعاد می دهید دیگه ویژگی های مهم خودشون را بهتر نشان می دهند لازم نیست زیاد از ابتدای کار نگرانشون باشید منظورم این بود که در این مرحله با این مباحث زیاد درگیر نشوید (البته سریعترین راه این است که شما بر اساس مقاله معتبری وِیژگی هایی که استفاده کرده را انتخاب کنید و ببنید تا چه اندازه در اختیار دارید و یا می توانید استخراج کنید)

2.در داده کاوی نمیشه گفت از چه نرم افزاری دلم می خواد استفاده کنم بلکه ابتدا نیاز سنجی می کنید بعد میگید بر اساس کاربرد و کارائی کدام را بر میدارم مگر اینکه مورد مشترکی از لحاظ کارائی باشه که حالا بر اساس معیار های خودتون موردی را انتخاب می کنید.

سعی می کنم مختصر توضیحی برای نحوه انتخاب ابزار بدهم:
زمانی که شما نیاز دارید الگوریتم های متفاوتی را با هم مقایسه کنید یا کار پژوهشی است یا بیشترین ساپورت از الگوریتم ها مثلا از Weka استفاده می کنید. اگر کار تجاری است و ارتباط با پایگاه داده های متفاوت و یا داده کاوی آنلاین لازم دارید و خروجی جالب می خواهید می روید سراغ Celementine. اگر می خواهید در KDDCup یا مسابقات داده کاوی شرکت کنید شک نکنید که باید ازRapidMiner استفاده کنید.و موارد دیگر, البته موارد زیادی را برای تصمیم گیری در هر مرحله هم میشه در نظر گرفت و شاید لازم باشه الگوریتمی را تغییر دهید یا به نرم افزاری اضافه کنید که باید سهولت و امکان آن را در نظر بگیرید پس می بینید که صرف چندم بودن در یک رنکینگ نمیشه تصمیم گیری کرد.
هیچ اصراری برای استفاده از ابزار خاصی ندارم ولی مثلا همین جا در این کار شما فک نکنم چند الگوریتمی که می خواهیم ازش استفاده کنیم در celementine باشه.

3. Outlier Detection یکی از مباحث جالب در داده کاوی است اما outlier (یا برون هشته) یعنی داده ای خارج از بازه عمومی داده ها یا الگوی داده ای با رفتار متفاوت یا غیر طبیعی از الگوی عمومی داده ها که البته میتونه نشان دهنده داده نویز هم باشه . تشخیص این مورد یا موارد کاربرد های زیادی در حوزه های متفاوت داره مثلا در پزشکی رفتار غیر عادی یکسری پروتئین می تونه نشاندهنده بیماری جدیدی باشه در ورزش میشه یک بازیکن با کارائی بالا یا خیلی پائین را تشخیص داد در مباحث مرتبط با تجارت, بیمه, بانکداری میشه کلاهبرداری (fraud detection) انجام داد یک مثال جالب براتون از کلاهبرداری در بانکداری بزنم: اگر یک کارمند از حساب هر نفر روزانه فقط یک ریال برداره هیچ جستجوی آماری یا کوئری خاصی نمی توانید در نظر گرفته باشید که این کار را تشخیص بده حتی صاحبان حساب هم هرگز برای این کسری پیگیری نخواهند کرد ولی این فرد توانسته مبالغ هنگفتی کلاهبرداری کنه اما داده کاوی براحتی این الگوها را می تواند جدا کند.

اما تکنیک های مرسوم که البته بر اساس ساختارهایی دسته بندی می شوند که وارد بحثش نمی شوم که اغلب این موارد هستند:

box plot (اگر داده ها از یک محدوده خاصی از داده های عمومی دور باشه outlier هستند).
رگرسیون (یک خطی که بصورت رگرسیونی بیشتری پوشش روی داده ها را می دهد در نظر می گیرند و موارد خیلی دور افتاده مشکوک به outlier هستند ) که میتونه چند گانه هم باشه.
clustering (از روشهای خوشه بندی برای تعیین موارد outlier استفاده میشه) که در این میان بعضی روش ها نیاز به تعین تعداد خوشه ندارند و خودکار عمل می کنند مانند همان روش DBScan که قبلا گفتم.
مبتی بر توضیع (مثلا تعیین می کنید عموما داده هاتون از یک توضیع خاصی پیروی می کنه مثل توضیع نرمال بعد موارد خارج از آن میشه outlier)
classification (برای استفاده از این مورد باید قبلا در داده هاتون موارد و الگوهای خاص را شناسایی کرده باشید و لیبل زده باشید که آموزش بدهید و پس از آن بتوان موارد outlier را تشخیص داد )
منابع هم زیاد است کافی است در اینترنت جستجو کنید.

4. بله فعلا مناسب به نظر می رسه (البته نگاه به مقاله را هم تاکید کردم دیگه).


امیدوارم مفید واقع گردد.

سلام اقاي aminkop
ممنون از پاسختون:
مي خواستم بدونم اون قسمتي كه گفتيد اگر شخصي روزانه از حساب هركس 1000 تومان بردارد هيچ روش اماري و كويري نميتواند ان را شناسايي كند اما الگوريتم هاي داده كاوي اين كا رو انجام ميدن.منظورتون از الگوريتم هاي داده كاوي ميتون اين باشه كه اگه از خوشه بندي استفاده شده تعداد كم خوشه ها ميتون مورد مشكوك و ا جرم باشه؟اگه مورد مشكوك چه جوري اون مورد مشكوكو بررسي ميكنن؟؟؟؟ممنون

article ۱۰-۱۴-۱۳۹۰ ۰۹:۳۱ قبل از ظهر

4(ها)ضميمه
نقل قول:

نوشته اصلي بوسيله hony (پست 20814)
اگر تحلیل لینک بلد هستید می توان با ارتباط بین مشتریان و شعبه ها کلیک ها را استخراج کرد. اینها می توانند گزینه های تقلب باشند. یا با صفات کد شعبه، کد حساب یا زیر نوع حساب، بدهکار یا بستانکار در یک فیلد با علامت منفی و مبلغ و محصول را خوشه بندی یا قوانین انجمنی ان را بدست اورید و با استفاده از ان کشف تقلب کنید. در خوشه بندی به تعدادی خوشه تقسیم کنید و خوشه ای که تعداد رکوردهایش کم است مظنونان تقلب هستند. باید توجه کنید که صفات باید استانداردسازی شوند. یا با اسفاده از قوانینی انجمنی قوانینی که دارای سا÷ورت کم و کانفیدنس بالا با توجه به قوانین دیگر می تواند تقلب را کشف کرد. یا کار دیگر یک تحلیل رفتار مشتری یا فعالیت بانک را انجام دهید


سلام اقاي مهدي نصيري.
من با وكا خوشه بندي رو بر روي 4 تا متغيير انجام دادم نتيجه خروجي به صورت زير شد:
Clustered Instances

شماره كلاستر0 1359 ( 2%)
1 30501 ( 47%)
2 1728 ( 3%)
3 20515 ( 31%)
4 2812 ( 4%)
5 6252 ( 10%)
6 2368 ( 4%)
نتجه نموداري ان به ازاي چها متغيير متفاوت در نوع 7 خوشه به صورت زير است:
اين نتايج چه چيزي را نمايش مي دهند؟؟؟؟

Goee ۱۱-۱۲-۱۳۹۰ ۰۴:۱۴ قبل از ظهر

نقل قول:

نوشته اصلي بوسيله article (پست 22343)
سلام اقاي aminkop
ممنون از پاسختون:
مي خواستم بدونم اون قسمتي كه گفتيد اگر شخصي روزانه از حساب هركس 1000 تومان بردارد هيچ روش اماري و كويري نميتواند ان را شناسايي كند اما الگوريتم هاي داده كاوي اين كا رو انجام ميدن.منظورتون از الگوريتم هاي داده كاوي ميتون اين باشه كه اگه از خوشه بندي استفاده شده تعداد كم خوشه ها ميتون مورد مشكوك و ا جرم باشه؟اگه مورد مشكوك چه جوري اون مورد مشكوكو بررسي ميكنن؟؟؟؟ممنون


خوشه ها صرفا الگویی از تقلب ها میتونند باشند.تو به تصاویر بدست امده میتونی تجمع تراکنش ها را تحلیل کنی
مثلا 40 درصد از تراکنش ها در یک خوشه قرار دارند که این ویژگیها رو دارند محل انجام :شعبه های استان تهران و مبلغ بیش از 40 هزار تومان

خوب در مرحله بعد میتونی با الگوریتم های دسته بندی Classification پیش بینی تقلب تک تک تراکنش ها را بدست بیاری
اینکار را میتونی بر روی هر خوشه یا به صورت کلی انجام بدی البته انجام بر روی هر خوشه مطمئنا دقت بیشتری باید داشته باشه


زمان محلي شما با تنظيم GMT +3.5 هم اکنون ۰۹:۵۰ بعد از ظهر ميباشد.

Powered by vBulletin® Version 3.8.3
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Search Engine Friendly URLs by vBSEO 3.1.0 ©2007, Crawlability, Inc.