Его принято обозначать двумя разными способами.
С одной стороны, существует вот такое обозначение Mξ,
с другой стороны, существует обозначение Eξ.
Второе точно происходит от английского слова expectation, ну,
собственно, ожидание.
Что касается первого, то я по наивности когда-то, еще совсем в молодости,
думал, что оно происходит от слова математическое ожидание.
И мне казалось, что это должно быть очень, как бы сказать, патриотично,
если я буду использовать именно это обозначение, а не второе.
Хотя слово математика, конечно, не русское, но все-таки ожидание – русское.
И как-то вот мне казалось, что так будет лучше.
Но потом меня разубедили, сказав, что, ну, вообще, Бог-то его знает.
Но по-английски, например, среднее значение будет mean value.
А по-немецки Mittelwert.
И скорее всего вот эта M, конечно, происходит не от матожиданий,
а от чего-то того, что вот я сейчас произнес.
Ну уж деваться некуда, я привык говорить Mξ,
писать Mξ и буду пользоваться именно этим обозначением.
Хотя во многих и наших книжках,
и в западной литературе зачастую все-таки используется именно expectation.
Так, ну это касательно обозначения.
А суть...
Внимание, мы сейчас работаем только с конечными вероятностными пространствами.
Ни в коем случае не думайте, что я даю сейчас абсолютно общее определение.
Но ведь мы с вами других и не знаем.
Поэтому давайте в рамках этого нынешнего определения существовать.
И тогда математическое ожидание – это очень простая вещь.
Давайте просуммируем по всем ω из Ω большого,
ну или если хотите, по всем i от 1 до m, значение,
которое принимает ξ на соответствующем ω,
помноженные на вероятности таких вот ω.
Ну проще некуда.
То есть мы как бы каждое значение взвешиваем со своей вероятностью.
И такую вот взвешенную сумму в итоге вычисляем.
Понятно, что получается некое среднее значение.
Например, если бы мы работали сейчас с классической вероятностью,
тогда вероятность ω – это просто 1/m,
на число всех элементарных исходов, которые у нас есть.
Просто в классическом случае так это определяется.
И в этом классическом случае матожидание – это, вообще, не что иное,
как просто среднее арифметическое значение нашей случайной величины.
Ну а в общем случае, если вам нравятся, скажем, физические аналогии – это такой,
своего рода, центр масс.
Потому что, напоминаю, мы же знаем с вами,
что в любом конечном вероятностном пространстве сумма вероятностей
элементарных исходов по определению равняется единице.
С этого я сегодня начал.
То есть, конечно, мы берем такие веса неотрицательные, сумма которых
равняется единица, и с этими весами взвешиваем значение случайной величины.
Понятно, что получается некая характеристика серединки,
вот такой вот, действительно, своего рода, центр масс.
Но внимание,
конечно он совершенно не обязан совпадать ни с одним значением случайной величины,
просто это вот какая-то вот серединка нашего распределения.
Внимание!
Да, это серединка нашего распределения, то есть, наверное,
зная математическое ожидание, что-то можно сказать о распределении.
Но это пока только догадка, это пока только догадка.
Давайте попробуем переписать это же самое определение немножко по-другому.
Смотрите, ведь у нас ξ на своем пространстве элементарных
исходов принимает k различных значений.
То есть для разных элементарных исходов из
множества Ω ξ от ω может равняться одному и тому же числу.
Ну, например, y1 может приниматься не на единственном ω,
а на целом десятке или там на дюжине, на скольких получится там.
Как получится, так и будет.
Давайте перегруппируем слагаемые.
То есть сначала соберем все ξ от ω, которые равняются y1.
Тогда в скобках у нас получится сумма по тем ω,
на которых ξ от ω равняется y1 вероятностей вот этих ω.
Дальше прибавим y2, ну, естественно, на сумму по всем ω,
для которых ξ от ω равняется y2 P от ω.
Ну и так далее, покуда не дойдем до y с индексом k.
Ну, естественно, в конце будет стоять y с индексом k на сумму по всем ω,
на которых ξ принимает значение yk-тое,
а суммируется по-прежнему вероятность элементарных исходов Ω.
Так, ну и чему равны вероятности, которые здесь написаны?
Никто не догадывается?
Ну как у нас определялась вероятность события?
Вероятность события – это сумма по всем элементарным исходам,
которые этому событию благоприятствуют, вероятностей этих элементарных исходов.
То есть, конечно же, написано так: y1 * P(ξ
= y1) + y2 * P(ξ
= y2) +...
+ yk * P(ξ = yk).
Ну или более коротко – это сумма по j от
1 до k yj * P(ξ = yj).
Очень тоже естественная форма записи среднего значения.
Мы суммируем те различные значения, которые принимает наша
случайная величина и каждое из них умножаем на вероятность того,
что оно будет принято нашей случайной величиной.
Тоже совершенно естественная запись среднего, запись математического ожидания.
Это кажется тоже абсолютно понятным.
Хорошо.
Но то есть смотрите, вроде как мы пришли к тому,
что математическое ожидание, конечно же,
определяется, коль скоро мы знаем, как распределена случайная величина ξ.
То есть изначально мы знаем вероятности вот этих значений,
то глядишь, наверное, мы матожидание и сосчитаем.
Но это на самом деле все не так просто.
В действительности скоро мы увидим, что зачастую матожидание посчитать легче,
чем каждую из отдельно взятых вероятностей.
А зная матожидание, можно уже что-то будет сказать о том,
как вот эти отдельные вероятности устроены.
То есть как-бы обратить вот эту формулу, перевернуть ее наизнанку.