На этот раз мы не будем предполагать, что они независимы и одинаково распределены.
Предположим, что у них таблички совместного распределения отличаются.
То есть в данном примере нарушается предпосылка о том,
что наблюдения взяты случайным образом и с одной генеральной
совокупностью и являются случайной выборкой.
А именно табличка для пары ε1х1 будет иметь следующий вид:
х1 принимает значения: 1, 10; ε1 принимает значения: минус 10, минус 1, 1,
10 с вероятностями 1/4, 1/4, 1/4, 1/4, 0, 0, 0, 0.
А аналогичная табличка для связки ε2 х2 будет иметь слегка другой вид.
А именно вероятность 1/4 будет приходиться на 10 и минус 10,
а на минус 1 и 1 будут приходиться вероятности, равные 0.
И мы посмотрим, имеет ли здесь место безусловная гетероскедастичность.
То есть мы найдем математическое ожидание от ε1 при условии х1,
математическое ожидание от ε1 в квадрате при условии х1,
математическое ожидание от ε1 безусловное.
Дисперсию ε1 условную при известном
х1 и дисперсию ε1 безусловную.
И аналогичные характеристики найдем для пары ε2 х2.
Соответственно, условное распределение ε1 при известном х1,
поскольку х1 может принимать два значения — либо х1 = 1,
либо х1 = 10, мы получим две таблички.
Здесь ε1 = -1, 1.
И здесь от нормированной вероятности по 1/2.
И во втором случае те же самые значения: -1 и 1.
И вероятности по 1/2.
Отсюда мы получаем, что математическое ожидание ε1
при условии, что х1 = 1, равно 0.
Аналогичным образом считается математическое ожидание от ε1 при условии,
что х1 = 10, Только по другой табличке, тоже получается 0.
И, стало быть, поскольку вне зависимости от х1, мы получили 0,
значит математическое ожидание от ε1 при любом х1 равно 0.
Отсюда первое равно 0.
Аналогично составляем таблички не для ε1 при известном х1,
а для ε1 при известном х1, для ε1 квадрат.
Значения ε1 при известном х1,
всегда ε1 в квадрате = 1.
Вероятность = 1.
И ε1 в квадрате при условии, что х1 = 10,
при известном х1, ε1 в квадрате окажется = 1,
а вероятность будет = 1.
Если х1 = 10, то ε1 принимает значение либо -1,
1, но ε- квадрат — только значение 1.
Стало быть, математическое ожидание от ε1- квадрат,
если я знаю х, не зависит от х и = 1.
Помещаем этот результат сюда.
И мы тут же можем найти все остальные характеристики.
У нас математическое ожидание от ε1 —
это есть математическое ожидание от условного математического ожидания.
Получаем математическое ожидание от 0,
получаем 0 и дисперсию
ε1 при условии х1,
равняется математическое ожидание от ε1 в квадрате при известном х1,
минус математическое ожидание от ε1 при х1, потом взятое в квадрат.
И получается 1- 0 в квадрате, получается 1.
Ну и последний шаг — находим безусловную дисперсию ε1.
Безусловная дисперсия ε1 равняется дисперсии
от условного математического ожидания,
плюс математическое ожидание
от условной дисперсии.
И это равняется — дисперсия от 0,
плюс математическое ожидание от 1.
И это равняется 1.
Что произойдет, если мы выполним
аналогичные вычисления для пары ε2 х2?
Что поменяется?
Давайте подумаем.
Поскольку строчки в таблице одинаковые,
то поэтому условные математические
ожидания ε2 при условии х будут равны константе и будут равны 0.
И условные математические ожидания ε2- квадрат при условии х2
тоже не будут зависеть от х2, потому что, чему бы не равнялось х2,
закон распределения ε2 все равно — либо -10,
либо 10 с условной вероятностью по 1/2.
То есть поменяются вот эти вот таблички.
В них поменяется возможное значение ε2, а вероятности останутся теми же.
И вот здесь в табличке поменяется значение ε2.
Давайте, соответственно, быстренько пересчитаем и получим результат.
Значит, табличка для ε2 при условии,
что х2 = 1 на этот раз принимает значения
возможные: -10 и 10 с вероятностью по 1/2.
Аналогичная табличка будет,
если здесь стоит условие — х2 = 10.
ε2 при условии х2 = 10.
То же самое принимает значение: -10 и 10 с вероятностью по 1/2.
И для квадратов ε будут таблички — если ε2 = -10,
или если ε2 = 10, не важно, ε2 в квадрате = 100.
То есть ε2 в квадрате при условии, что х2 = 1, ε2 в квадрате =100.
Здесь вероятность равна 1.
И ε2 в квадрате при условии,
что х2 = 10, ε2 в квадрате = 100,
и вероятность этого 100 %, то есть мы записываем это как 1.
Ну отсюда получаем аналогичные характеристики для
пары х2 ε2.
Математическое ожидание от ε2
при условии х2 = 0.
Математическое ожидание от ε2 квадрат при условии х2 равно,
видно, что ε2 в квадрате всегда 100, не важно,
чему равно х2, поэтому мы получаем, что это 100.
Аналогично получается, что мы от ожидания,
от ε2 по аналогичной формуле, это просто 0.
Дисперсия от ε2 при условии х2,
это 100, полностью по аналогичной формуле.
И безусловная дисперсия ε2, точно такая же формула,
дисперсия нуля + математическое ожидание от 100,
это будет дисперсия 0,
плюс математическое ожидание от Е2 при условии х2,
это будет, стало быть 100.
Что мы видим?
Мы в данной задаче видим, что у нас сложилась ситуация,
в которой дисперсия первой ошибки для первого наблюдения дисперсии ε1 = 1,
а дисперсия ошибки второго наблюдения, дисперсия ε2 = 100.
Они не равны, то есть у нас дисперсия ε1
не равна дисперсии ε2, и этот случай
называется безусловной гетероскедастичностью.
Разным разбросом у ε1 и ε2.
Но данный случай не может сложиться в ситуации случайной выборки,
потому что в ситуации случайной выборки, когда наблюдения,
то есть векторы ε1 х1, ε2 х2 распределены одинаково и независимо,
то есть таблички одинаковые в случае случайной выборки.
Стало быть, в случайной выборке у нас ситуация
безусловной гетероскедастичности сложиться не может, а как мы видели в случае В,
ситуация условной гетероскедастичности сложиться может.