Байесовский информационный критерий

Байесовский информационный критерий или критерий Шварца - это метод, который фокусируется на сумме квадратов остатков, чтобы найти количество запаздывающих периодов. п которые минимизируют эту модель.

Другими словами, мы хотим найти минимальное количество лаговых периодов, которые мы включаем в авторегрессию, чтобы помочь нам в прогнозировании зависимой переменной.

Таким образом, мы будем контролировать количество лаговых периодов. п что мы включаем в регресс. Когда мы превысим этот оптимальный уровень, модель Шварца перестанет уменьшаться, и, следовательно, мы достигнем минимума. То есть мы достигнем количества лаговых периодов п которые минимизируют модель Шварца.

Его также называют информационным критерием Байеса (BIC).

Рекомендуемые статьи: авторегрессия, сумма квадратов остатков (SCE).

Формула байесовского информационного критерия

Хотя на первый взгляд это кажется сложной формулой, мы рассмотрим части, чтобы понять ее. Прежде всего, в общих чертах мы должны:

  • Логарифмы в обоих факторах формулы представляют собой предельный эффект от включения периода с запаздыванием. п больше в саморегрессии.
  • N - общее количество наблюдений.
  • Формулу можно разделить на две части: левую и правую.

Часть слева:

Представляет собой сумму квадратов остатков (SCE) авторегрессиип запаздывающие периоды, разделенные на общее количество наблюдений (N).

Для оценки коэффициентов мы используем метод наименьших квадратов (МНК). Итак, когда мы включаем новые запаздывающие периоды, SCE (p) может только поддерживаться или уменьшаться.

Тогда увеличение лагового периода в авторегрессии вызывает:

  • SCE (p): уменьшается или остается постоянным.
  • Коэффициент детерминации: увеличивается.
  • ОБЩИЙ ЭФФЕКТ: увеличение периода задержки вызывает уменьшение левой части формулы.

Теперь правая часть:

(п + 1) представляет собой общее количество коэффициентов в авторегрессии, то есть регрессоров с их лаговыми периодами (п) и перехват (1).

Тогда увеличение лагового периода в авторегрессии вызывает:

  • (p + 1): увеличивается, потому что мы включаем запаздывающий период.
  • ОБЩИЙ ЭФФЕКТ: увеличение периода задержки вызывает увеличение правой части формулы.

Практический пример

Мы предполагаем, что хотим сделать прогноз относительно цен наски-пассы для следующего сезона 2020 года с 5-летней выборкой, но мы не знаем, сколько периодов задержки использовать: AR (2) или AR (3)?

  • Мы загружаем данные и вычисляем натуральный логарифм цен на ски-пассы.

1. Оценим коэффициенты с помощью OLS и получим:

Сумма квадратов остатков (SCE) для AR (2) = 0,011753112

Коэффициент детерминации для AR (2) = 0,085

2. Мы добавляем еще 1 лаговый период, чтобы увидеть, как изменяется SCE:

Сумма квадратов остатков для AR (3) = 0,006805295

Коэффициент детерминации для AR (3) = 0,47

Мы видим, что при добавлении лагового периода в авторегрессию коэффициент детерминации увеличивается, а SCE в этом случае уменьшается.

  • Вычисляем байесовский информационный критерий:

Чем меньше модель BIC, тем предпочтительнее эта модель. Тогда AR (3) будет предпочтительной моделью по сравнению с AR (2), учитывая, что ее коэффициент детерминации выше, SCE ниже и модель Шварца или байесовский информационный критерий также ниже.

Вы поможете развитию сайта, поделившись страницей с друзьями

wave wave wave wave wave