Оценка на максималната вероятност

Съдържание:

Anonim

Оценката за максимална вероятност (VLE) е общ модел за оценка на параметрите на разпределение на вероятността, който зависи от наблюденията в извадката.

С други думи, EMV максимизира вероятността от параметрите на функциите на плътността, които зависят от разпределението на вероятността и наблюденията в извадката.

Когато говорим за максимална оценка на вероятността, трябва да говорим за функция максимална вероятност. Математически, дадена проба x = (x1,…, Хн) и параметри, θ = (θ1, …, Θн) тогава,

Не се паникьосвай! Този символ означава същото като сумирането за суми. В този случай умножението на всички функции на плътността зависи от наблюденията на пробата (xi) и параметрите θ.

Колкото по-голяма е стойността на L (θ | x), т.е. стойността на функцията за максимална вероятност, толкова по-вероятно ще бъдат параметрите, базирани на извадката.

Логаритмична функция на EMV

За да намерим максималните оценки на вероятността, трябва да разграничим (извлечем) произведенията от функциите на плътността и това не е най-удобният начин да го направим.

Когато се натъкнем на сложни функции, това, което можем да направим, е монотонна трансформация. С други думи, би било като да искаме да привлечем Европа в реални мащаби. Трябва да го намалим, за да може да се побере на лист хартия.

В този случай ние правим монотонната трансформация, използвайки естествени логаритми, тъй като те са монотонни и нарастващи функции. Математически,

Свойствата на логаритмите ни позволяват да изразим горното умножение като сбор от естествени логаритми, приложени към функциите на плътността.

Така че монотонното преобразуване чрез логаритми е просто "промяна в мащаба" към по-малки числа.

Очакваната стойност на параметрите, които максимизират вероятността за параметрите на функцията за максимална вероятност с логаритми, е еквивалентна на прогнозната стойност на параметрите, които максимизират вероятността за параметрите на първоначалната функция за максимална вероятност.

Така че, ние винаги ще се справяме с монотонната модификация на функцията за максимална вероятност, предвид по-голямата й лекота на изчисления.

Любопитство

Колкото и сложно и странно да изглежда EMV, ние непрекъснато го прилагаме, без да го осъзнаваме.

Кога?

Във всички оценки на параметрите на линейна регресия при класически предположения. По-известен като обикновени най-малки квадрати (OLS).

С други думи, когато прилагаме OLS, прилагаме имплицитно EMV, тъй като и двете са еквивалентни по отношение на последователност.

Приложение

Подобно на други методи, EMV се основава на итерация. Тоест, повтаряне на определена операция толкова пъти, колкото е необходимо, за да се намери максималната или минималната стойност на дадена функция. Този процес може да бъде предмет на ограничения върху крайните стойности на параметрите. Например, че резултатът е по-голям или равен на нула или че сумата от два параметъра трябва да бъде по-малка от един.

Симетричният GARCH модел и различните му разширения прилагат EMV, за да намерят приблизителната стойност на параметрите, която максимизира вероятността за параметрите на функциите на плътността.