Оценката за максимална вероятност (VLE) е общ модел за оценка на параметрите на разпределение на вероятността, който зависи от наблюденията в извадката.
С други думи, EMV максимизира вероятността от параметрите на функциите на плътността, които зависят от разпределението на вероятността и наблюденията в извадката.
Когато говорим за максимална оценка на вероятността, трябва да говорим за функция максимална вероятност. Математически, дадена проба x = (x1,…, Хн) и параметри, θ = (θ1, …, Θн) тогава,
![](https://cdn.economy-pedia.com/8571054/estimacin_de_mxima_verosimilitud_2021_economy-wikicom.jpg.webp)
Не се паникьосвай! Този символ означава същото като сумирането за суми. В този случай умножението на всички функции на плътността зависи от наблюденията на пробата (xi) и параметрите θ.
Колкото по-голяма е стойността на L (θ | x), т.е. стойността на функцията за максимална вероятност, толкова по-вероятно ще бъдат параметрите, базирани на извадката.
Логаритмична функция на EMV
За да намерим максималните оценки на вероятността, трябва да разграничим (извлечем) произведенията от функциите на плътността и това не е най-удобният начин да го направим.
Когато се натъкнем на сложни функции, това, което можем да направим, е монотонна трансформация. С други думи, би било като да искаме да привлечем Европа в реални мащаби. Трябва да го намалим, за да може да се побере на лист хартия.
В този случай ние правим монотонната трансформация, използвайки естествени логаритми, тъй като те са монотонни и нарастващи функции. Математически,
![](https://cdn.economy-pedia.com/8571054/estimacin_de_mxima_verosimilitud_2021_economy-wikicom_2.jpg.webp)
Свойствата на логаритмите ни позволяват да изразим горното умножение като сбор от естествени логаритми, приложени към функциите на плътността.
Така че монотонното преобразуване чрез логаритми е просто "промяна в мащаба" към по-малки числа.
Очакваната стойност на параметрите, които максимизират вероятността за параметрите на функцията за максимална вероятност с логаритми, е еквивалентна на прогнозната стойност на параметрите, които максимизират вероятността за параметрите на първоначалната функция за максимална вероятност.
Така че, ние винаги ще се справяме с монотонната модификация на функцията за максимална вероятност, предвид по-голямата й лекота на изчисления.
Любопитство
Колкото и сложно и странно да изглежда EMV, ние непрекъснато го прилагаме, без да го осъзнаваме.
Кога?
Във всички оценки на параметрите на линейна регресия при класически предположения. По-известен като обикновени най-малки квадрати (OLS).
С други думи, когато прилагаме OLS, прилагаме имплицитно EMV, тъй като и двете са еквивалентни по отношение на последователност.
Приложение
Подобно на други методи, EMV се основава на итерация. Тоест, повтаряне на определена операция толкова пъти, колкото е необходимо, за да се намери максималната или минималната стойност на дадена функция. Този процес може да бъде предмет на ограничения върху крайните стойности на параметрите. Например, че резултатът е по-голям или равен на нула или че сумата от два параметъра трябва да бъде по-малка от един.
Симетричният GARCH модел и различните му разширения прилагат EMV, за да намерят приблизителната стойност на параметрите, която максимизира вероятността за параметрите на функциите на плътността.