Оценка максимального правдоподобия

Содержание:

Anonim

Оценка максимального правдоподобия (VLE) - это общая модель для оценки параметров распределения вероятностей, которая зависит от наблюдений в выборке.

Другими словами, EMV максимизирует вероятность параметров функций плотности, которые зависят от распределения вероятностей и наблюдений в выборке.

Когда мы говорим об оценке максимального правдоподобия, мы должны говорить о функция максимальная вероятность. Математически, учитывая выборку x = (x1,…, ИКСп) и параметров, θ = (θ1,…, Θп) тогда,

Не паникуй! Этот символ означает то же, что и суммирование сумм. В этом случае это умножение всех функций плотности, зависящих от выборочных наблюдений (xя) и параметры θ.

Чем больше значение L (θ | x), то есть значение функции максимального правдоподобия, тем более вероятными будут параметры на основе выборки.

Логарифмическая функция EMV

Чтобы найти оценки максимального правдоподобия, мы должны дифференцировать (вывести) произведения функций плотности, и это не самый удобный способ сделать это.

Когда мы сталкиваемся со сложными функциями, мы можем выполнить монотонное преобразование. Другими словами, это все равно, что захотеть нарисовать Европу в реальном масштабе. Мы должны уменьшить его, чтобы он поместился на листе бумаги.

В этом случае мы выполняем монотонное преобразование с использованием натуральных логарифмов, поскольку они являются монотонными и возрастающими функциями. Математически,

Свойства логарифмов позволяют нам выразить указанное выше умножение как сумму натуральных логарифмов, примененных к функциям плотности.

Таким образом, монотонное преобразование с помощью логарифмов - это просто «изменение масштаба» к меньшим числам.

Расчетное значение параметров, которые максимизируют вероятность параметров функции максимального правдоподобия с логарифмами, эквивалентно оцененному значению параметров, которые максимизируют вероятность параметров исходной функции максимального правдоподобия.

Итак, мы всегда будем иметь дело с монотонной модификацией функции максимального правдоподобия, учитывая ее большую простоту вычислений.

Любопытство

Каким бы сложным и странным ни казался EMV, мы постоянно применяем его, не осознавая этого.

Когда?

Во всех оценках параметров линейной регрессии при классических предположениях. Более известен как обыкновенный метод наименьших квадратов (OLS).

Другими словами, когда мы применяем OLS, мы применяем EMV неявно, поскольку оба они эквивалентны с точки зрения согласованности.

Приложение

Как и другие методы, EMV основан на итерациях. То есть повторение определенной операции столько раз, сколько требуется, чтобы найти максимальное или минимальное значение функции. Этот процесс может иметь ограничения на конечные значения параметров. Например, результат больше или равен нулю или сумма двух параметров должна быть меньше единицы.

Симметричная модель GARCH и ее различные расширения применяют EMV для нахождения оценочного значения параметров, которое максимизирует вероятность параметров функций плотности.