فروشگاه

توضیحات

تحقیق الگوریتم

در سالهای اخیر آمارشناسان به طور زیاد روش‌های الگوریتم مونت کارلوی زنجیر مارکوفی (MCMC) را رسم کرده‌اند. الگوریتم نمونه‌گیری گیبر یکی از بهترین روش‌های شناخته شده است برای آشنایی با شرایط مسأله فرض کنید در بردار تصادفی () برای محاسبه چگالی کناری x ، با مشکل روبرو هستیم اما چگالی‌های شرطی…

 

برای دیدن ادامه مطلب روی مشاهده و دریافت کلیک کنید

 

 

در روش نمونه‌گیری گیبس مشاهداتی به صورت غیرمستقیم ازx تولید می‌شود و به کمک آنها چگالی کناری x را بررسی می‌کنیم.

حالا توجه قابل ملاحظه‌ای به الگوریتم متروپولیس- هستینگس[۱] تخصیص داده شده است که توسط متروپولیس و روسنبلوس[۲]، تلر[۳] (۱۹۵۳) گسترش و بعداً توسط هستینگس (۱۹۷۰) نظم داده شده است. الگوریتم M-H به طور زیاد در فیزیک کاربرد دارد و هنوز با وجود مقاله‌ای که توسط هستینگس ارائه شده است، به طور خیلی کم برای آمارشناسان شناخته شده است.

به دلیل سودمندی الگوریتم M-H ، کاربردهای آن به طور مداوم ظاهر می‌شود. برای مثال‌های جدید مولر[۴] (۱۹۹۳)، چیب وگریبزگ[۵]   (1994) و فیلیپس و اسمیت[۶] (۱۹۹۴) را ببینید. پایان نامه دات کام

ما مقدمه‌ای را از این الگوریتم تهیه کرده‌ایم که از اصول اولیه آن مشتق شده است این مقاله به تنهایی مربوط به تئوری زنجیر مارکوف است. مطالب مربوط به این مقاله چنان که در پایین می‌آید به بحث گذاشته می‌شود. در بخش ۲،‌ ما به طور خلاصه مشابه روش‌پذیرش- رد کردنی را مرور می‌کنیم. اگر چه MCMC نیست ولی بعضی از تفسیرهایی که در الگوریتم متروپولیس- هستینگس ظاهر می‌شود را به کار می‌برد و این مقدمه ای خوب برای این موضوع است. بخش ۳ ارتباط تئوری زنجیر مارکوف به فضای وضعیت دائم را معرفی می‌کند که با فلسفه کلی که در پشت روش MCMC است همراه می‌شود. در بخش ۴ الگوریتم M-H  را نتیجه می‌گیریم و بخش ۵ شامل مقالاتی می‌شود که با انتخاب چگالی کاندیدی- تولیدی در ارتباط هستند.

 

۲- نمونه‌گیری پذیرش- رد کردنی

بر خلاف روش‌های MCMC که در پایین توضیح داده شده تکنیک‌های مشابه قدیمی که نمونه‌های مارکوفی را تولید نمی‌کند وجود دارد. روش مهم این دسته روش A-R است که به این صورت است.

 

روش A-R :

روش A-R به طور علمی نمونه‌هایی را تولید می‌کند که از چگالی معین   می‌آید که  یک چگالی غیرنرمالی و k یک ثابت نرمالیز است که ناشناخته است.

فرض کنید که h(x) یک چگالی باشد که با روش‌هایی معین می‌تواند شبیه‌سازی شود و فرض کنید که یک ثابت شناخته شده C باشد طوری که برای تمام x ها  باشد.

*یک مقدار Z از h(.) و یک مقدار U از (۱/۰)U (توزیع یکنواخت روی (اره)) بگیرید. اگر  آنگاه z=y و به * برگردید،‌در غیر این صورت باز هم به * برگردید.

به آسانی نشان داده می‌شود که این y یک متغیر تصادفی از  است. برای اینکه این روش مفید و سودمند باشدC باید با دقت انتخاب شود.

 

نظر به تولید چگالی همچنین در الگوریتم M-H ظاهر می‌شود، اما قبل از در نظر گرفتن تفاوت‌ها و مشابهت‌ها، ما به منطق و فکری که در پشت روش MCMC است توجه می‌کنیم.

۳- شبیه‌سازی مونت کارلوی زنجیر مارکوفی

روش معمول تئوری زنجیر مارکوفی روی فضای وضعیت این است که با یک انتقال کرنل  برای  و ، جایی که B بورل سیگا میدان روی است شروع می‌شود.

انتقال کرنل امکان حرکت از x تا یک نقطه‌ای در دستگاه A را نمایش می‌دهد و انتقال از x تا x که با  نمایش می‌دهیم به طور فرضی صفر نیست.

توجه اصلی روی تئوری زنجیر مارکوفی این است که یک توزیع هدف وجود دارد که تحت شرایطی معین انتقال کرنل به آن توزیع هدف همگرا می‌شود.

(۱)    

تکرار n ام به وسیله جایی که داده می‌شود. پایان نامه دات کام

تحت شرایطی که در پایین بحث می‌شود نشان داده می‌شود که تکرار n ام به سمت توزیع هدف همگرا می‌شود. وقتی که n به سمت بینهایت میل می‌کند.

در واقع چگالی هدف همان است که شناخته شده است و نمونه‌ها به سمت آن میل می‌کنند و انتقال کرنل ناشناخته است. برای اینکه نمونه‌هایی از تولید شود باید یک انتقال کرنل مناسب پیدا کرد که در تکرار n ام وقتی که n بزرگ می‌شود به سمت  همگرا شود. این فرآیند در یک x قراردادی آغاز شده و در مدت زمان زیادی تکرار می‌شود، بعد از این تعداد زیاد، توزیع مشاهدات که از شبیه‌سازی تولید می‌شود تقریباً توزیع معینی است.

پس مشکل اینجاست که یک  مناسب را پیدا کنیم، که این مثل ضرب‌المثل پیدا کردن سوزن در کومه‌ی علف خشک است.

فرض کنید انتقال کرنل به صورت زیر باشد:

(۲)  

که و  از اینکه واضح است که  الزاماً یک نیست.

حالا اگر  مورد استفاده در (۲) به صورتی باشد که رابطه زیر برقرار باشد.

(۳)    

آنگاه چگالی هدف  همان  است (تیرنی[۷] ۱۹۹۴).

برای اینکه تحقیق کنیم،‌ طرف راست (۱) را ارزیابی می‌کنیم.

 

 

طرف چپ رابطه (۳) حرکت از x تا y است جایی که x از تولید می‌شود و طرف راست حرکت از x تا y است جاییکه y همچنین از  تولید می‌شود.

در واقع نتیجه نشان می‌دهد که  توزیع ثابتی است برای .

ما حالا نشان می‌دهیم که الگوریتم متروپولیس- هستینگس یک  با این توانایی را پیدا می‌کند.

۴- الگوریتم متروپولیس- هستینگس

همان‌طور که در روش A-R، ما فرض می‌کنیم که یک چگالی داریم که کاندیدها را می‌تواند تولید کند در اینجا هم یک چگالی  داریم که کاندیدها را از آن تولید می‌کنیم و  اگر این اتفاق بیفتد که  خودش وضعیت برگشت‌پذیری (۳) را برای تمام xها و y ها فراهم کند تحقیق ما خاتمه می‌یابد. اما بیشترین احتمال این است که آن اتفاق نمی‌افتد و ممکن است که برای مثال برای بعضی از xها و y ها داشته باشیم.

(۵)    

در این حالت فرآیند از x  تا y بیشتر دقت‌ها و از y  تا x خیلی به ندرت حرکت می‌کند. راه راحتی که این وضعیت را تصحیح می‌کند این است که شماره حرکات از x  تا y را به وسیله معرفی احتمال  کاهش دهیم. ما از  ‌به عنوان احتمال حرکت رجوع می‌کنیم. اگر حرکت ساخته نشده باشد فرآیند دوباره به x ‌بر می‌گردد.

در الگوریتم M-H داریم: پایان نامه دات کام

 

دوباره در نظر بگیرید نابرابری (۵). این نابرابری به ما می‌گوید که حرکت از y  تا x اغلب به طور کافی ساخته نمی‌‌شود، بنابر این ما باید را که تا حد ممکن بزرگ باشد تعریف کنیم که حد بالای آن یک است. اما حالا امکان حرکت  با  که وضعیت برگشت‌پذیری را فراهم می‌کند تعیین می‌شود. بنابر این

(۶)

ما حالا می‌بینیم که  ،‌ البته اگر نابرابری در (۵) برعکس شود ما  قرار می‌دهیم و همان‌طور که در بالاست  را نتیجه می‌گیریم.

احتمالات و سپس معرفی می‌شوند تا مطمئن شویم که دو طرف (۵) در تعادل هستند یا به عبارت دیگر برگشت‌پذیری را فراهم می‌کند.

اگر  

و گرنه                    1

برای اینکه تعریف انتقال کرنل برای زنجیر متروپولیس- هستینگس را کامل کنیم ما باید احتمال غیرصفری را در نظر بگیریم که این فرآیند درx باقی می‌ماند. همان‌طور که در بالا تعریف کردیم.

 

در نتیجه انتقال کرنل زنجیر M-H، به وسیله  مشخص می‌شود.

 

Markov chain monte carlo (MCMC)

روش مونتوکارلو در واقع بر گرفته از قانون اعداد بزرگ برای برآورد یک احتمال مرکزی یا امید ریاضی است.

فرض کنید می‌خواهیم امید (EY)Y‌را برآورد کنیم و یک الگوریتم برای تولید یک نمونه‌ی تصادفی (Y1,Y2,Y3,…)iid داریم که دارای توزیع یکسان Y با میانگین نمونه‌ای  می‌باشند که برای اندازه‌ی نمونه‌ی بزرگ یک برآوردگر خوب برای EY می‌باشد.

در مسائل ساده معمولاً اینچنین متغیرهای تصادفی را از متغیرهای تصادفی  تولید می‌کنیم ولی در مسائل پیچیده‌تر به این راحتی نیست. MCMC یک تکنیک خوب بر پایه اعداد بزرگ برای زنجیره‌های مارکوف است، به این صورت که:

می‌خواهیم امید Y را تقریب بزنیم. فرض کنید الگوریتمی داریم که X1,X2,… را از زنجیره‌ی مارکوف تولید می‌کند و روی فضای نمونه‌ای X با تابع توزیع ثابت  ‌و یک تابع حقیقی مقدار

            

و میانگین نمونه‌ای

 

که می‌تواند برای برآورد EY استفاده شود. پایان نامه دات کام

MCMC از این جهت مفید است که کار کردن با یک زنجیره‌ی مارکوف با تابع توزیع ثابت مشخص شده آسانتر از تابع توزیع اصلی است.

 

الگوریتم METROPOLIS :

یکی از کاربردهای انتگرال مونت کارلو در بدست آوردن نمونه هایی از بعضی توزیع های احتمال پیچیده ی  است.

تلاش برای بدست آوردن این نمونه ها اساس روشهای MCMC است و یکی از این روشها متروپولیس- هستینگ[۸] است.

فرض کنید که هدف ما استخراج نمونه هایی از توزیع  است که  در حالی که ثابت مالیزه  است و مجهول و محاسبه آن مشکل می باشد.

الگوریتم (Metropolis & Ulam 1949, Metropolis et al.1953) Metropolis یک دنباله از استخراج ها را از این توزیع تولید می کند , به صورت زیر :

۱-  با هر مقدار اولیه  که  شروع کنید.

۲- برای مقدار کنونی x یک نقطه ی پیشنهادی  را از توزیع  از طریق نمونه گیری انتخاب کنید. تنها محدودیت روی این چگالی در الگوریتم Metropolis متقارن بودن آن است:

 

۳-  نسبت چگالی نقطه ی پیشنهادی  و مقادیر کنونی  را محاسبه کنید:

 

توجه کنید که در این گام چون نسبت  را تحت دو مقدار مختلف درس نظر گرفته ایم ثابت نرمالیز  حذف می شود.

۴- اگر  (پرش چگالی را افزایش دهد) نقطه ی پیشنهادی را  می پذیریم و قرار می دهیم  و به گام ۲ باز          می گردیم. اگر  (پرش چگالی را کاهش دهد) با احتمال  نقطه ی پیشنهادی را می پذیریم و به گام ۲ باز می گردیم.

به بیان دیگر:

 

را محاسبه کرده و سپس مقدار پیشنهادی را با احتمال  (احتمال انتقال) می پذیریم.

این کار یک زنجیره ی مارکوف  را تولید می کند که احتمالات انتقال از  به  فقط به  (و نه به  ) بستگی دارد.

هستینگس[۹] (۱۹۷۰) , الگوریتم متروپولیس[۱۰]  را با استفاده از تابع احتمالات انتقال اختیاری  تعمیم داد و احتمال پذیرش برای یک مقدار پیشنهادی به صورت زیر است:

 

این الگوریتم (MH) Metropolis – Hastings است.

اگر فرض متقارن بودن توزیع پیشنهادی را نیز اضافه کنیم الگوریتم اولیه ی Metropolis بهبود می یابد.

به صورت خلاصه الگوریتم متروپولیس- هستینگس از این قرار است:

–         با  شروع کنید

–         برای … , ۲ , ۱= i :

مقدار  را پیشنهاد کنید.

 را تولید کنید.

اگر   را بپذیرید و قرار دهید  در غیر اینصورت  را رد کنید  قرار دهید.

الگوریتم متروپولیس با هر توزیع متقارنی کار می کند در حالی که الگوریتم متروپولیس- هستینگس خیلی کلی تر است.

مثال ۱: تابع چگالی زیر را در نظر بگیرید:

 

فرض کنید که علاقه مند به شبیه سازی مقادیری از این توزیع با ۵=n درجه آزادی هستیم و ۴=a.

فرض کنید که توزیع مولد پیشنهادی را توزیع یکنواخت روی           (100,0) در نظر گرفته ایم (توجه کنید که این مثال ساختگی است) حال الگوریتم را اجرا می کنیم:

۱= را به عنوان مقدار اولیه قرار داده و فرض می کنیم که توزیع یکنواخت یک مقدار پیشنهادی ۸۲/۳۹= را نتیجه می دهد.

 

در این حال  و  با احتمال ۰۰۰۷/۰ پذیرفته می شود، بنابر این به صورت تصادفی u را از (۱,۰)Uniform (یکنواخت روی (۱,۰) ) به صورت تصادفی انتخاب می کنیم و سپس  پذیرفته می شود اگر .

در این مثال مقدار پیشنهادی رد شده و مقدار دیگری را از توزیع پیشنهادی انتخاب می کنیم و ادامه می دهیم. پایان نامه دات کام

انتخاب توزیع پیشنهادی (۰)q:

در این قسمت می خواهیم بررسی کنیم که بهترین انتخاب ها برای توزیع پیشنهادی چیست؟

دو روش کلی برای انتخاب داریم:

۱-  گام زدن تصادفی

۲-  زنجیره ی نمونه گیری مستقل

گام زدن تصادفی:

تحت یک نمونه گیری که توزیع پیشنهادی مورد استفاده بر پایه زنجیره ی قدم تصادفی است، مقدار جدید  را برابر با مقدار فعلی  به اضافه ی متغیر تصادفی  می گیریم:

 

در این حالت  چگالی به متغیر تصادفی  وابسته است.

اگر  ، به عبارت دیگر، چگالی متغیر تصادفی  متقارن است. (در توزیع نرمال یا نرمال چند متغیره با میانگین صفر یا یکنواخت مرکزی اطراف صفر) سپس می توان نمونه گیری Metropolis را استفاده کرد:

 

واریانس توزیع پیشنهادی می تواند به عنوان یک هماهنگ کننده ی پارامتر در نظر گرفته شود که می توانیم آنرا برای داشتن پراکندگی بهتر تعدیل کنیم.

به صورت خلاصه:

توزیع هدف:

توزیع پیشنهادی:

مثال: نرمال

پارامتر تنظیم کننده:

زنجیره ی نمونه گیری مستقل:

تحت یک نمونه گیری که توزیع پیشنهادی مورد استفاده بر پایه ی زنجیره ی نمونه گیری مستقل است احتمال پرش نقطه ی  از مقدار فعلی در زنجیره ی نمونه گیری مستقل است یعنی

 

بنابر این مقدار پیشنهادی از یک توزیع مورد علاقه که مستقل از مقدار کنونی است نتیجه م



[۱] Metropolis-Hastings

[۲] Rosenbluth

[۳] Teller

[۴]Muller

[۵] chib and Greenberg

[۶] Smith

[۷] Tierney 1994

[۸] Metropolis- Hastings

[۹] Hastings

[۱۰]

Metropolis

اگر مطلب مورد نظر خود را در این سایت پیدا نکردید میتوانید از قسمت سفارش پروژه جدید یا تماس با ما کار تحقیقی خود را به ما سفارش دهید

 

نقد وبررسی

نقد بررسی یافت نشد...

اولین نفر باشید که نقد و بررسی ارسال میکنید... “الگوریتم (رایگان)”

الگوریتم (رایگان)

0 نقد و بررسی
وضعیت کالا : موجود است.
شناسه محصول : 184

قیمت : تماس بگیرید.