Эта теорема не была бы такой впечатляющей, если бы не было некоего утверждения,
которое его, вот это вот утверждение,
полностью как бы дополняет до практически полной картины.
Но для того чтобы эту полную картину создать, давайте двинемся дальше
и попробуем сформулировать то, что называется неравенство Чебышева.
Но для того чтобы сформулировать неравенство Чебышева,
надо ввести еще одну важную характеристику, ну,
в каком-то смысле среднего значения случайной величины, а именно дисперсию.
Так называемую дисперсию случайной величины.
Сейчас я расскажу, что это такое.
Так...
Ну, дисперсия по определению – это есть просто
математическое ожидание квадрата разности (ξ – Mξ) в квадрате.
Смысл очень простой.
Смысл исключительно простой.
Ну как?
Мы знаем среднее значение случайной величины, но мы хотим померить,
а насколько сильно значения случайной величины разбросаны вокруг этой серединки?
Случайная величина принимает какие-то значения.
Где-то находится середина матожидания.
Но разброс может быть очень большим.
И вот для того чтобы померить, насколько велик или мал этот разброс,
считают дисперсию случайной величины.
То есть, если угодно, среднее квадратичное уклонение ξ от своего среднего значения.
На это зачастую спрашивают: а зачем нужен квадрат?
Почему бы просто не написать: матожидание (ξ – Mξ).
Ну, просто средний разброс ξ вокруг своего среднего значения.
Но это ерунда, конечно,
потому что если мы применим в этом месте линейность математического ожидания,
то мы получим Mξ – M (Mξ).
Но (Mξ) – это константа, это фиксированное число.
10, не знаю, (-5).
И когда вы берете его математическое ожидание,
то просто по определению вы получаете эту же константу.
То есть, вот это – это просто Mξ, и все вместе получается равным нулю.
То есть, такая характеристика никакого смысла не имеет.
Тогда мне говорят: «Ну, хорошо, вы правы, да, уели.
Но давайте здесь нарисуем модуль».
Согласен.
На это отвечаю: «Согласен, да, модуль можно нарисовать.
Но считать обычно неудобно».
А с квадратом считается гораздо удобнее и работает так же хорошо с точки зрения
всевозможных применений, даже лучше.
Так, давайте это тоже с помощью линейности перепишем.
А именно – честно возведем в квадрат.
У нас получится вот так.
ξ х Mξ + (Mξ) в квадрате.
Не забываете, что и вот эта константа.
Причем, такая же, как двойка.
То есть, все можно выносить за знак матожидания.
И вот это константа, то есть, матожидание от нее – это она же сама.
Поэтому мы получаем Mξ в квадрате...
Сразу скажу, вот такая штука называется вторым моментом случайной величины.
Красивое выражение: второй момент случайной величины – это
матожидание квадрата этой случайной величины.
Дальше.
Константы выносятся за скобку.
Вот эти два константы.
А в скобках остается просто матожидание Mξ.
Ну и матожидание константы – это она же сама.
Смотрите, здесь Mξ х Mξ – это квадрат матожидания.
И здесь квадрат матожидания.
Но здесь со знаком (-) и с коэффициентом 2, а здесь просто со знаком (+).
Поэтому в итоге, приводя подобные,
мы получаем второй момент минус квадрат математического ожидания.
Вот это другая удобная формула для вычисления дисперсии.
Возможно, мы в дальнейшем увидим, что иногда удобнее считать по этой формуле,
а иногда – по этой.
Но, так или иначе, давайте напишем теперь неравенство Чебышева.
Теорема, которая называется «неравенство Чебышёва».