انجام پروژه های دانشجویی SVM دو و چند کلاسه در متلب
انجام پروژه های دانشجویی برنامه نویسی و کد نویسی ماشین بردار پشتیبان Support vector machines SVM در با متلب مطلب مسائل بهینه سازی تک هدفه چند هدفه فارسی انجام پروژه سفارش برنامه نویسی کدنویسی پیاده سازی دانشجویی در با مطلبmatlab مدل سازی ریاضی دانلود رایگان فیلم فایل جزوه کتاب مقاله کد پایان نامه ارشد دکتری تدریس خصوصی دوره کلاس آموزشی مهندسی صنایع کاربرد مالی مدیریت صنعتی pdf ppt doc پاورپوینت برق کامپیوتر مکانیک عمران هوش مصنوعی حل مساله,الگوریتم های بهینه سازی متاهیورستیک metaheuristics فرا ابتکاری فراابتکاری تکاملی آماده تولباکس Toolbox. اموزش ترکیبی هیبریدی رساله سمینار.
اصولا معماری شبکه های عصبی به طراحی شبکه و انتخاب مناسب پارامتر های شبکه اطلاق می شود. با استفاده از یک معماری مناسب می توان دقت شبکه را در پیش بینی و مدل سازی یک فرآیند بالا برد. انتخاب تعداد نرون ها ، تعداد لایه های مخفی و انتخاب پارامتر های شبکه به منظور رسیدن به کمترین مقدار خطا از اهداف معماری شبکه می باشد. [۲۳]
همانطوریکه گفته شد، شبکه های عصبی می توانند از یک یا چند نرون در هر لایه تشکیل شوند. تعداد نرون های لایه ها به تعداد دادگان تعلیم و تنوع آن ها به شدت وابسته است. گاهی اوقات به دلیل پراکندگی وتعداد زیاد داده ها جهت رسیدن به دقت مدل سازی بالا تر، نیاز مند طراحی شبکه با یک یا چند لایه پنهان[۱] می باشیم. با استفاده از لایه های پنهان فضای ورودی ها بهتر افراز شده و در نتیجه شبکه بهتر آموزش دیده می شود. اما باید این نکته را مد نظر قرار داد که همیشه تعداد زیاد لایه های مخفی و نرون ها دقت یک شبکه را بالا نمی برد. شکل (۲-۸) یک شبکه ی عصبی چند لایه را نشان میدهد که در هر لایه چند نرون وجود دارد.
شکل۲-۸ یک شبکه ی عصبی مصنوعی چند لایه با چند ورودی و چند خروجی ]۲۳[
۲-۹-۳ شبکه های عصبی پس انتشار[۲]
ساختار يك شبكهي عصبي پس انتشار شامل يك لايه ورودي، تعدادي لايه مخفي و يك لايه خروجي ميباشند. در اين ساختار نرونها از طريق وزنهايي با يكديگر مرتبط ميشوند. با توجه به اين ساختار اطلاعات لايه ورودي از طريق تعدادي لايه مخفي به لايه خروجي نگاشته ميشود. براي يك مدل نرون ساده رابطهي زير (نگاشت) برقرار است [۲۳]
در اين رابطه ak مقدار خروجي، Wki وزن بين نرونها، pi وروديها و bk ترم باياس را نشان ميدهد. در رابطهي فوق f تابع انتقال ميباشد كه عموماً اين تابع براي لايههاي مخفي به صورت لاگ سيگموئيد يا تان سيگموئيد ميباشد كه هر کدام به ترتیب از روابط ذيل بدست ميآيند.
همچنين جهت رسيدن به مقدار واقعي خروجيها اصولاً تابع انتقال لايه آخر به صورت تابع خطي به كار ميرود و از رابطهي زير بدست ميآيد.
يك شبكه عصبي پس انتشار شامل دو مرحلهي اصلي ميباشد. اين دو مرحله شامل مرحله حركت رو به جلو و مرحلهي پس انتشار ميباشند. در مرحلهي اول (حركت رو به جلو) شبكه با وروديها و يك وزن تصادفي اوليه آموزش ميبيند و خروجيها محاسبه ميگردد. سپس خروجيهاي بدست آمده با خروجيهاي واقعي مقايسه ميگردد و ميزان خطا محاسبه ميگردد. در مرحلهي دوم (مرحلهي پس انتشار) ميزان ميانگين مربعات خطا با توجه به رابطهي زير مورد ارزيابي قرار ميگيرد. اگر مقدار خطاي بدست آمده قابل قبول باشد آموزش شبكه متوقف شده و مقدار وزنهاي مطلوب بدست ميآيد. در غير اين صورت، الگوريتم پس انتشار ماتريس وزنها را بروز رساني كرده و مقادير جديدي را بدست ميآورد. اين مرحله آنقدر تكرار خواهد شد كه ميزان خطا به كمتر از مقدار داده شده به الگوريتم برسد كه نشان دهنده دقت بالا ميباشد.
N تعداد نمونههاي حاضر جهت آموزش شبكه است. tk مقدار خروجي واقعي و ak مقدار خروجي شبكه ميباشد.
[۱] Hidden Layer
۲۶ Back-propagation neural network
دیدگاه خود را ثبت کنید
تمایل دارید در گفتگوها شرکت کنید؟در گفتگو ها شرکت کنید.