Ну дальше можно говорить по-разному.
Ну давайте предположим,
что существует некоторая константа c такая,
что для любого i дисперсия ξi-того не превосходит c.
То есть дисперсии всех этих случайных величин ограничены.
С ростом индекса дисперсия не растет.
Она ограничена одной и той же константой c для всех i.
Вот давайте, например, предположим так.
Тогда точно все получится.
Утверждается, что тогда
для любого ε > 0 вероятность того,
что ξ1 +...
+ ξn поделить на n, – то есть вот такое вот среднее
значение результатов применения наших случайных величин,
давайте по модулю, – уклоняется от своего математического ожидания,
то есть от величины Mξ1 +...
+ Mξn поделить на n,
уклоняется от своего математического ожидания больше, чем на ε,
вот эта вероятность стремится к нулю при n, стремящимся к бесконечности.
Вот такой вот замечательный, очень глубокий, на самом деле, факт,
который я сейчас постараюсь всячески прокомментировать,
а потом в некотором смысле доказать.
Ну вот давайте, прежде всего, я извинюсь все-таки перед слушателями по
поводу некоторой маленькой неграмотности с формальной точки зрения,
которую я допустил при формулировки этой теоремы,
потому что нам как бы не даны еще те знания,
которые позволяют абсолютно четко формализовать то, что здесь написано.
Смотрите, в чем состоит проблема.
Вроде бы, мы с вами говорим о том,
что мы умеем работать только с конечными пространствами элементарных событий,
на которых мы умеем определять понятие вероятности.
Мы каждому элементарному исходу присваиваем некоторую чиселку,
которую называем вероятностью этого элементарного исхода, и говорим, что мы
все сделали корректно в случае, если сумма вероятности элементарных событий равна 1.
Это вы все, конечно, помните.
И дальше мы говорим,
что вероятность какого-то события – это просто сумма по всем элементарным исходам,
которые благоприятствуют этому событию, вероятности этих элементарных исходов.
Вот такая у нас есть конструкция.
Закавыка состоит в том, что здесь у нас сейчас присутствует не конечное,
но бесконечное количество различных, и как мы еще дополнительно говорим,
попарно некоррелированных случайных величин.
Но на конечном пространстве элементарных событий трудновато будет задать
бесконечное количество различных попарно некоррелированных случайных величин.
В этом состоит некоторая формальная некорректность, неаккуратность того,
что я здесь написал.
Ну видите, я же использую одну и ту же букву P для обозначения вероятности,
значит, я наверное предполагаю, что все то, что здесь написано под знаком
вероятности, живет на каком-то одном и том же вероятностном пространстве.
Но повторяю, если считать, что это вероятностное пространство конечно, а мы,
вроде бы, никаких других вероятностных пространств с вами пока что не знаем,
то ну несколько формально это неаккуратно.
Так все-таки говорить не очень хорошо.
Ну с одной стороны, я вам обещаю, что все-таки какие-то бесконечные пространства
в рамках этого курса точно появятся.
То есть мы реабилитируемся за эту формальную неаккуратность.
А с другой стороны, ну вы же можете понимать это утверждение вполне
практическим образом, на практике, когда вы смотрите на реализации каких-то,
как вам кажется, случайных величин, сейчас я про это поговорю, вы,
конечно же, понимаете, что ничего бесконечного, в принципе, у вас нет.
У вас лишь конечное множество случайных величин, и тогда Закон Больших Чисел,
который мы здесь написали, это очень понятное и естественное утверждение,
это такой, если хотите, закон природы.
Причем я вам скажу такой полуанекдот.
Суть такая, что математики – каковым и я являюсь, конечно, тоже – всегда говорят,
что Закон Больших Чисел – это такой физический закон природы.
А физики говорят: да нет!
Это математическая теорема.
Вот, ну видите, математическая теорема нам чуть-чуть не удалась.
С точки зрения математики, здесь есть формальная неточность.
Как раз с точки зрения физики, здесь все совершенно понятно.
Смысл очень простой.
Смотрите, мы производим наблюдение за каким-то процессом,
который протекает в природе.
Ну, в природе или на каком-нибудь производстве.
Я не знаю, представьте себе, что случайные величины,
которые здесь написаны в рамках нашей формулировки,
это какие-нибудь количества бракованных деталей, которые пронаблюдались на
производстве в течение дня, скажем, ξ1 – это количество бракованных деталей
в течение 1-го февраля, ξ2 – это количество бракованных деталей, которые
пронаблюдались на этом производстве в течение 2-го февраля, ну и так далее.
Так каждый день наблюдаем за количеством бракованных деталей и смотрим,
как ведет себя эта сумма.
Ну или, там, за погодой наблюдаем или еще за какими-нибудь интересными свойствами.
Короче говоря, есть какой-то реальный процесс, за которым мы наблюдаем,
и этот процесс поделен на отдельные такие вот этапы, в рамках каждого из
которых наблюдается некоторая числовая характеристика этого процесса.
Утверждается, что если эти числовые характеристики...
Ну, здесь мы написали в каком-то самом таком упрощенном варианте формулировку.
Попарно некоррелированы, да?
То есть даже не упрощенном, а наоборот, таком ослабленном, что ли,
в самом ослабленном варианте.
Если они попарно некоррелированы, ну или скажем, независимы в совокупности,
тогда уж точно все получится.
Если эти наблюдения друг от друга в каком-то смысле не зависят,
тогда такое вот абстрактное математическое
ожидание суммарного количества,
которое получится у нас на выходе, можно в
достаточно хорошей мере аппроксимировать таким вот статистическим средним.
То есть мы просто посмотрели, чему равняется ξ1, посмотрели,
чему равняется ξn, усреднили, получили некоторое число, и мы утверждаем,
что вот это вот случайное, вообще говоря, число уклоняется от неизвестного нам в
каком-то смысле математического ожидания больше, чем на любое,
сколь угодно маленькое, заданное наперед ε с вероятностью, которая крайне мала.
То есть, если вас все-таки как сугубых математиков смущает та неаккуратность,
о которой я говорил, то воспринимать это нужно следующим образом: если у
нас зафиксировано какое-то очень маленькое ε, то мы точно знаем,
что пронаблюдав за процессом достаточно долго, конечное количество шагов,
но достаточно долго, достаточно много дней, например, наблюдая за
бракованными деталями, мы сможем с помощью вот этого статистического среднего,
обычного среднего арифметического, в очень хорошей степени с вероятностью
очень близкой к единице аппроксимировать математическое ожидание.
Вот, на самом деле, если забыть про формальности, то смысл именно такой.
Теоретическое матожидание и среднее
арифметическое – они в некотором смысле с высокой вероятностью близки друг к другу.
То есть, если написать вот здесь наоборот меньши либо равно ε,
то такая вероятность, конечно, стремится к 1.
Можно дать более или менее аккуратные оценки того,
с какой скоростью она стремится к 1.
И тогда вы, действительно,
по каждому ε сможете находить такое n конечное, для которого,
действительно, вероятность столь малого уклонения в нужной степени близка к 1.
Это вполне практический подход, вполне такой физически содержательный результат.
Ну повторяю, это вот закон природы: если вы долго наблюдаете за каким-то процессом,
то средние матожидания с высокой вероятностью очень мало различаются.
Ну доказать этот результат мы, конечно, сумеем в предположении,
что когда-нибудь вы узнаете, что такое бесконечное вероятностное пространство,
но тем не менее, если поверить, что вероятностная мера определена корректно,
конечно, мы сможем этот результат сейчас обосновать.
Ну можно это как-то по-другому формализовывать, конечно,
ну давайте я уже в эти дебри лезть не буду, а просто теорему докажу.
Последний комментарий, который мне хотелось сделать перед доказательством,
он следующий: ну представьте себе дополнительно,
что вот эти наши случайные величины ко всему прочему еще имеют одинаковые
математические ожидания или и вовсе, то что называется, одинаково распределены.
То есть принимают, по сути, одни и те же значения с одними и теми же вероятностями.
Тогда, конечно, у них совпадают математические ожидания.
И в этом случае сумма матожиданий – это просто матожидание любой из них, например,
первой, умножить на n, n сокращается, и у нас получается,
в частности, такой результат.
Если для любого i Mξi = a,
то вероятность того,
что среднее значение уклоняется
от этого числа a больше, чем на ε,
стремится к нулю при n, стремящимся к бесконечности.
Вот такой вот совсем уж понятно написанный,
совсем прозрачный и красивый результат.
Ну хорошо, сейчас докажем.