لینک دانلود این پروژه + توضیحات فارسی کد در فایل Word :
.
در تئوری اطلاعات، آنتروپی مقدار به طور متوسط از اطلاعات موجود در هر پیام را دریافت می باشد. در اینجا، پیام مخفف یک رویداد، نمونه و یا شخصیت گرفته شده از یک توزیع یا اطلاعات جریان. آنتروپی در نتیجه مشخص عدم قطعیت ما در مورد منبع ما از اطلاعات است. (آنتروپی بهتر است به عنوان یک اندازه گیری از عدم اطمینان نسبت به یقین درک به عنوان آنتروپی برای منابع تصادفی بزرگتر است). منبع نیز توسط توزیع احتمال از نمونه گرفته شده از آن مشخص می شود. این ایده در اینجا این است که به احتمال زیاد کمتر یک رویداد است، اطلاعات بیشتر را فراهم می کند هنگامی که آن رخ می دهد. برای برخی از دلایل دیگر (توضیح در زیر) را حس می کند به تعریف اطلاعات به عنوان منفی لگاریتم از توزیع احتمال. توزیع احتمال از حوادث، همراه با مقدار اطلاعات از هر رویداد، به شکل یک متغیر تصادفی است که به طور متوسط (با نام مستعار انتظار می رود) ارزش مقدار به طور متوسط از اطلاعات است، با نام مستعار آنتروپی، تولید شده توسط این توزیع. واحد آنتروپی معمولا به عنوان بیت اشاره شد، اما آنتروپی نیز در shannons، پریمیر لیگ در انگلستان، و یا hartleys اندازه گیری، بسته به پایه لگاریتم برای تعریف لگاریتم it.The از توزیع احتمال به عنوان یک اندازه گیری از اطلاعات به دلیل مفید است آن افزودنی است. به عنوان مثال، کوه در می رم یک سکه را فراهم می کند ۱ شانون اطلاعات در حالی متر پرتاب جمع آوری متر بیت. به طور کلی، شما نیاز log2 (N) بیت برای نشان دادن یک متغیر است که می تواند یکی از مقادیر N را. از آنجا ۱ از نتایج N ممکن است هنگامی که شما یک مقیاس فارغ التحصیل با علائم N، log2 (N) بیت از اطلاعات را با هر جمله اندازه گیری شما دریافت خواهید کرد. log2 (N) قانون تنها دارای در حالی که تمام نتایج به همان اندازه محتمل. اگر یکی از حوادث از دیگران بیشتر رخ می دهد، مشاهده آن رویداد کمتر آموزنده است. در مقابل، مشاهده وقایع نادر با ارائه اطلاعات بیشتر در هنگام مشاهده جبران کند. از آنجا که مشاهده وقایع کمتر احتمال به ندرت اتفاق می افتد، اثر خالص است که آنتروپی (فکر به عنوان اطلاعات به طور متوسط) دریافت شده از داده های غیر یکنواخت توزیع کمتر از log2 (n) است. آنتروپی صفر وقتی است که تنها یک نتیجه خاص انتظار می رود. آنتروپی شانون quantifies تمام این ملاحظات دقیقا زمانی که یک توزیع احتمال از منبع ارائه شده است. این مهم است که توجه داشته باشید که به معنی از حوادث مشاهده (با نام مستعار معنای پیام) در تعریف آنتروپی مهم نیست. آنتروپی تنها به حساب طول می کشد احتمال مشاهده یک رویداد خاص، به طوری که اطلاعات آن را کپسوله اطلاعات در مورد توزیع احتمال اساسی، نه به معنی از خود حوادث است.
دانلود رایگان کد matlab دانلود رایگان مقاله + ترجمه فارسی انگلیسی دانلود رایگان پایان نامه فارسی انگلیسی لیسانس کارشناسی ارشد دکتری دانلود رایگان کتاب جزوه دانشگاهی دانشگاه تهران شریف امیرکبیر علم وصنعت شهید بهشتی تربیت مدرس دروه آموزشی کلاس آموزشی تدریس خصوصی انجام پروژه های دانشجویی ارزان قیمت دانلود pdf ppt power point پاورپوینت
دیدگاه خود را ثبت کنید
تمایل دارید در گفتگوها شرکت کنید؟در گفتگو ها شرکت کنید.