انجام پروژه های دانشجویی SVM دو و چند کلاسه در متلب

انجام پروژه های دانشجویی برنامه نویسی و کد نویسی ماشین بردار پشتیبان Support vector machines  SVM در با متلب مطلب مسائل بهینه سازی تک هدفه چند هدفه فارسی انجام پروژه سفارش برنامه نویسی کدنویسی پیاده سازی دانشجویی در با مطلبmatlab مدل سازی ریاضی دانلود رایگان فیلم فایل جزوه کتاب مقاله کد پایان نامه ارشد دکتری تدریس خصوصی دوره کلاس آموزشی مهندسی صنایع کاربرد مالی مدیریت صنعتی pdf ppt doc پاورپوینت برق کامپیوتر مکانیک عمران هوش مصنوعی حل مساله,الگوریتم های بهینه سازی متاهیورستیک metaheuristics فرا ابتکاری فراابتکاری تکاملی آماده تولباکس Toolbox. اموزش ترکیبی هیبریدی رساله سمینار.

header5

اصولا معماری شبکه های عصبی به طراحی شبکه و انتخاب مناسب پارامتر های شبکه اطلاق می شود. با استفاده از یک معماری مناسب می توان دقت شبکه را در پیش بینی و مدل سازی یک فرآیند بالا برد. انتخاب تعداد نرون ها ، تعداد لایه های مخفی و انتخاب پارامتر های شبکه به منظور رسیدن به کمترین مقدار خطا از اهداف معماری شبکه می باشد. [۲۳]

همانطوریکه گفته شد، شبکه های عصبی می توانند از یک یا چند نرون در هر لایه تشکیل شوند. تعداد نرون های لایه ها به تعداد دادگان تعلیم و تنوع آن ها به شدت وابسته است. گاهی اوقات به دلیل پراکندگی وتعداد زیاد داده ها جهت رسیدن به دقت مدل سازی بالا تر، نیاز مند طراحی شبکه با یک یا چند لایه پنهان[۱] می باشیم. با استفاده از لایه های پنهان فضای ورودی ها بهتر افراز شده و در نتیجه شبکه بهتر آموزش دیده می شود. اما باید این نکته را مد نظر قرار داد که همیشه تعداد زیاد لایه های مخفی و نرون ها دقت یک شبکه را بالا نمی برد. شکل (۲-۸) یک شبکه ی عصبی چند لایه را نشان می­دهد که در هر لایه چند نرون وجود دارد.

 

شکل۲-۸ یک شبکه ی عصبی مصنوعی چند لایه با چند ورودی و چند خروجی ]۲۳[

۲-۹-۳ شبکه های عصبی پس انتشار[۲]

ساختار يك شبكه‌ي عصبي پس انتشار شامل يك لايه ورودي، تعدادي لايه مخفي و يك لايه خروجي مي‌باشند. در اين ساختار نرون‌ها از طريق وزن‌هايي با يكديگر مرتبط مي‌شوند. با توجه به اين ساختار اطلاعات لايه ورودي از طريق تعدادي لايه مخفي به لايه خروجي نگاشته مي‌شود. براي يك مدل نرون ساده رابطه‌ي زير (نگاشت) برقرار است [۲۳]

در اين رابطه ak مقدار خروجي، Wki وزن بين نرون‌ها، p ورودي‌ها و bk ترم باياس را نشان مي‌دهد. در رابطه‌ي فوق f تابع انتقال مي‌باشد كه عموماً اين تابع براي لايه‌هاي مخفي به صورت لاگ سيگموئيد يا تان سيگموئيد مي‌باشد كه هر کدام به ترتیب از روابط ذيل بدست مي‌آيند.

همچنين جهت رسيدن به مقدار واقعي خروجي‌ها اصولاً تابع انتقال لايه آخر به صورت تابع خطي به كار مي‌رود و از رابطه‌ي زير بدست مي‌آيد.

يك شبكه عصبي پس انتشار شامل دو مرحله‌ي اصلي مي‌باشد. اين دو مرحله شامل مرحله حركت رو به جلو و مرحله‌ي پس انتشار مي‌باشند. در مرحله‌ي اول (حركت رو به جلو) شبكه با ورودي‌ها و يك وزن تصادفي اوليه آموزش مي‌بيند و خروجي‌ها محاسبه مي‌گردد. سپس خروجي‌هاي بدست آمده با خروجي‌هاي واقعي مقايسه مي‌گردد و ميزان خطا محاسبه مي‌گردد. در مرحله‌ي دوم (مرحله‌ي پس انتشار) ميزان ميانگين مربعات خطا با توجه به رابطه‌ي زير مورد ارزيابي قرار مي‌گيرد. اگر مقدار خطاي بدست آمده قابل قبول باشد آموزش شبكه متوقف شده و مقدار وزن‌هاي مطلوب بدست مي‌آيد. در غير اين صورت، الگوريتم پس انتشار ماتريس وزن‌ها را بروز رساني كرده و مقادير جديدي را بدست مي‌آورد. اين مرحله آنقدر تكرار خواهد شد كه ميزان خطا به كمتر از مقدار داده شده به الگوريتم برسد كه نشان دهنده دقت بالا مي‌باشد.

N تعداد نمونه‌هاي حاضر جهت آموزش شبكه است. tk مقدار خروجي واقعي و ak مقدار خروجي شبكه مي‌باشد.

[۱] Hidden Layer

۲۶ Back-propagation neural network

Rate this post
0 پاسخ

دیدگاه خود را ثبت کنید

تمایل دارید در گفتگوها شرکت کنید؟
در گفتگو ها شرکت کنید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *