ГЛАВНАЯ О ЛОТЕРЕЕ
Числовые лотереи Супер Лото, Мегалот, Кено, Спортлото, Евромиллион, Олимпион. Системы игры, программы для анализа и прогноза результатов тиражей
СКАЧАТЬ КНИГУ СИСТЕМЫ КЕНО БЕСПЛАТНО
Теория

Вход / Регистрация

Теория

© Основы теории вероятности
© Основы комбинаторики
© Анатомия случайности
© Контрольные параметры и распределения
© Фильтры и распределения



Интеркасса
Мнение народа
 
 
 


Наша подписка
Главная / Теория /

© Анатомия случайности


Во всех областях человеческой деятельности, где большую роль играет "Его Величество Случай" можно обнаружить одну общую черту. Это обилие самых различных идей, советов, методов, и т.п., часто противоречащих один другому. Многие из них при этом, как и следует ожидать, не имеют никакого отношения к реальности и, тем не менее, преспокойно существуют и имеют своих сторонников. Причина очевидна: если результат в значительной степени зависит от случая, проверка эффективности и сравнение разных методов сильно осложняется. Такая ситуация характерна и для числовых лотерей, где от случая зависит почти все. По нашим наблюдениям практически все игроки находятся во власти тех или иных заблуждений. Самым удивительным при этом является то, что большинство из них являются людьми очень даже не глупыми и не привыкшими принимать на веру, все что попало. Более того, они считают, что их представления имеют твердую научную основу. Проблема, по-видимому, связана с неправильным пониманием принципов теории вероятности и матстатистики. Основные идеи в этой области науки выглядят достаточно простыми и интуитивно понятными, и это действительно так, но применение этих идей без глубокого понимания их смысла часто приводит к ошибкам.

В этой статье мы расскажем об основных понятиях теории вероятности и приведем ряд примеров расчета вероятностей в простых задачах. Таким образом, читатели, которые хотят научиться самостоятельно решать задачи, возникающие при анализе числовых лотерей получили в свои руки необходимые инструменты. Теперь глубже разберемся с <внутренним устройством> теории вероятности, чтобы избегать неправильного ее  применения  и начнем знакомиться с элементами матстатистики.

Напомним еще раз смысл главного понятия теории вероятности.

Вероятность
, что в некоторой ситуации произойдет какое-то событие это число между нулем и единицей, которое показывает, как часто будет происходить событие, если ситуация будет повторяться МНОГО раз. А именно: если вероятность равна p и ситуация создается N раз то число событий будет близко к p·N. (p·N называют средним или ожидаемым значением числа событий). Это и есть ВСЯ информация, которую дает нам знание вероятности - НИКАКОЙ другой информации в ней не содержится.
Здесь уже появились первые "подводные камни". Что значат слова "близко к p·N", насколько близко? "близко к p·N" значит, что отклонение числа реально случившихся событий X от среднего количества p·N будет мало, по сравнению с N, т.е., что величина (X-p·N)  будет намного меньше, чем N или даже чем p·N, иначе говоря (X-p·N)/(p·N) (эту величину называют относительным отклонением) будет маленькой величиной. И снова возникает вопрос насколько маленькой? Ответ: это зависит от N, если N небольшое число, то ничего сказать нельзя. Но, чем больше будет N, тем меньше будет (X-p·N)(p·N) и при увеличении N до бесконечности, (X-p·N)(p·N) будет уменьшаться до нуля. Но! Сама величина отклонения X-p·N от среднего значения p·N не только не будет уменьшаться, а будет расти с ростом N, хотя и не так быстро как N. Проиллюстрируем все вышесказанное примером.

Для монеты вероятность выпасть, например, гербом вверх 0.5. Если мы бросаем монету 4 раза, то количество выпадений гербом не должно сильно отличаться от 0.5·4 = 2. Но число 4 невелико, и повторяя серии из четырех бросков несколько раз, в каждой серии мы будем получать и 0, и 1, и 2, и 3, и 4 выпадения гербом. Чаще остальных будет все же выпадать 2 герба, чуть реже 1 или 3. Выпадения 0 или 4 гербов будут происходить еще реже, но все же такая ситуация не будет сверхъестественной. Соответствующие значения X-p·N(p·N) будут от 0 до 1., а максимальное отклонение от среднего числа выпадения гербов будет равно 2. Теперь посмотрим, что будет происходить, если мы будем бросать монету сериями по 20 раз. В этом случае количество выпавших в каждой серии гербов должно не очень сильно отличаться от 0.5·20 = 10. На самом деле мы будем получать по 10, реже по 9 или 11, еще реже по 8 или 12 и т.д. гербов. Выпадение количества гербов меньше 5 или больше 15 будет случаться очень редко и, скорее всего даже повторив довольно много серий, мы не встретимся с такой ситуацией, поэтому мы условно будем считать значения 5 и 15 границами диапазона, в котором расположатся числа выпадения гербов. При этом мы получим, что относительное отклонение X-p·N(p·N) теперь "зажато" в более узком интервале от 0 до 0.5, хотя само максимальное отклонение равно 5, т.е. оно увеличилось при увеличении числа бросаний от 4 до 20. При дальнейшем увеличении числа бросаний, максимальная наблюдаемая величина отклонения будет все время расти, а максимальная наблюдаемая величина относительного отклонения все время уменьшаться. Почему так получается? И как определить правдоподобное максимальное отклонение для заданного количества бросаний? Например, если монету бросали 50 раз и 24 раз выпал герб, то это вполне вероятно, а если он выпал всего 2 раза, то в это поверить трудно. Но где приблизительно "граница правдоподобия" 10 раз? 20 раз? Вопрос это совсем не праздный. Допустим при игре в рулетку "красное" выпало 37 раз из 50, это нормально или это указывает что рулетка "нечестная"? Множество аналогичных вопросов возникает и в лотереях - например, в "СуперЛото 6 из 49" за 77 тиражей номер 1 выпадал 17 раз, а номер 28 только 4 раза, значит ли это что у номера 1 повышенная вероятность выпадения, и на него надо ставить?

Перед тем как ответить на эти вопросы, рассмотрим одно из самых распространенных заблуждений в теории вероятностей. Очень многие игроки считают, что если в серии испытаний какой-нибудь из нескольких равновероятных исходов происходил реже остальных, то вероятность что он произойдет, повышается. В простейшем примере с монетой, если мы бросили монету 10 раз и ни разу не выпал герб, то у многих возникает ощущение, что при дальнейших бросаниях допущенная "несправедливость" должна исправиться и значит, больше оснований ожидать выпадения герба, чем обычно. Конечно же, это не так. Монета, ни каким образом не может "запоминать" как она выпадала раньше, каждое ее выпадение никак не зависит от предыдущих.
(Уточним, что когда мы говорим о "монете" мы имеем в виду идеализированную монету, которая выпадает абсолютно случайно. При реальных бросках монеты всегда есть факторы зависящие от способа бросания, параметров монеты и т.д. Но все это "физические" факторы, их тоже можно анализировать, но сейчас речь не о них, сейчас нас интересует только математическая сторона вопроса.)

Итак, у монеты нет памяти и если она выпала из 10 бросаний 10 раз вверх "решкой" то это никак не влияет на ее дальнейшие выпадения - примерно в половине случаев следующим будет герб, а в половине случаев опять решка. (Это, кстати, каждый легко проверить на опыте сам)

Некоторым может показаться, что это противоречит теории вероятности. Они рассуждают примерно так: "Если монета из десяти раз ни разу не выпала гербом, а затем будет выпадать примерно одинаковое число раз обоими сторонами, то общее число выпадений герба будет меньше. Но по теории вероятностей должно быть примерно одинаково"

В чем ошибка такого рассуждения? Действительно ситуация когда количество выпадений герба заметно меньше половины является маловероятной, необычной. Но эта "необычность" заключена уже в том факте, что у нас была серия из 10 решек подряд. Природу совершенно не волнует, что произошло необычное событие, и она никак не будет уменьшать его "необычность".

Но если природа не занимается "восстановлением справедливости", то как же все-таки получается что при большом числе бросаний герб выпадает примерно в половине случаев? Почему при 100 бросаний мы будем наблюдать иногда 55 выпадений  герба, но не случится 15 выпадений? И опять возникает вопрос, где граница возможного отклонения от ожидаемых 50 раз?

Ответы на поставленные вопросы связаны с центральным понятием матстатистики - распределением. Чтобы понять, что такое распределение проанализируем все возможные варианты развития событий при серии, к примеру, из 10 бросаний монеты. Обозначим два возможных варианта выпадения монеты 1 - выпал герб и 0 - не выпал герб. Так, например, может получиться последовательность 010100011 или 110110100.

Поскольку при каждом бросании оба исхода равноправны, то оба приведенных варианта абсолютно равноправны, каждый из них может произойти с одинаковой вероятностью. И варианты 1111111111 или 0000000000 имеют такие же "права" и могут случиться с той же вероятностью. И вообще любая из таких последовательностей может случиться с одинаковой вероятностью. Сколько таких последовательностей всего? Первое выпадение может произойти 2 способами, для каждого из них второе может произойти тоже двумя способами, то есть первые два выпадения могут произойти 2·2=4 способами. Для каждого из них третье выпадение может произойти снова двумя способами - всего 4·2=8 вариантов. Продолжая эти рассуждения, получим для 10 бросаний 2·2·2·2·2·2·2·2·2·2=210=1024 варианта. Итак, при 10 бросаниях монеты может быть 1024 равновероятных исхода, каждый с вероятностью 1/1024. А теперь посчитаем, в каких вариантах сколько выпадений гербом:

Ни одного герба - только один вариант 0000000000.
Один герб - варианты 1000000000, 0100000000,...и т.д., всего 10 вариантов.
Два герба на десяти возможных позициях могут быть выбраны C(10,2)=45 способами (сведения из комбинаторики см. статью на сайте).

И так далее, x гербов из 10 можно выбрать C(10, x) способами.

Представим это в виде графика

Вариантов с 5 гербами больше всего - больше 1/4 всех случаев, вариантов с 4 и 6 гербами тоже довольно много - больше, чем по 1/5 всех случаев. Чем больше отклонение числа гербов от 5, тем меньше имеется вариантов. Посмотрим теперь какова вероятность, что при 10 бросаниях число выпавших гербов будет от 3 до 7, она равна (120+210+252+210+120)/1024 =0.89, то есть почти в 90% случаев в серии 10 бросаний будет от 3 до 7 гербов (а это меньше половины всего диапазона 0-10). Теперь становится понятным, почему при большом числе бросаний выпадения гербом будут составлять около половины всех случаев. Для большего числа бросаний, это будет проявляться еще сильнее. Например, для 100 бросаний вероятность, что число выпадений герба будет отклоняться от 50 больше, чем на 10 равна ≈0.035.

Аналогично рассчитываются вероятности для любого числа бросаний N, количество вариантов в которых герб выпадет x раз, равна C(N,x), а соответствующая вероятность C(N,x)/2N. Такое распределение вероятностей
называется биномиальным.

Чтобы найти вероятность того, что число выпадений герба будет от x1 до x2 надо вычислить сумму вероятностей [ C(N,x1)+C(N,x1+1)+C(N,x1+2)+...+C(N,x2) ] /2N.

Разумеется, все это относится не только к бросанию монеты, биномиальному распределению подчиняются все случайные события, в которых может быть два исхода. Рассмотрим вопрос о рулетке, на которой из 50 игр 37 раз выпало красное. Вероятность, что из 50 игр число выпадения красного будет 37 или больше равна ≈0.00047, так что если такое произошло, то рулетка явно "нечестная". На графике показано распределение вероятностей для разных количеств выпадения одного из цветов, например красного в серии из 50 игр в рулетку.

Если вероятности двух исходов не одинаковы, например, один происходит с вероятностью p, а второй соответственно с вероятностью 1-p, то распределение также является биномиальным, но формула немного усложняется: вероятность что первый исход случится x раз C(N,xpx·(1-p)N-x

Биномиальное распределение является самым простым, но в то же время применяется очень часто, и мы еще неоднократно будем его использовать при анализе интересующих нас вопросов. Но для решения задач связанных с числовыми лотереями нам потребуются  еще несколько распределений. Простейшим обобщением биномиального распределения на случай когда у испытания может быть не два возможных исхода, а больше является полиномиальное распределение. Если вероятности первого, второго, третьего и т.д. исходов испытания равны соответственно p1, p2, p3 и т.д. то вероятность за N испытаний получить N1 раз первый исход, N2 раза второй исход и т.д. равна p = p1 p2 p3 : pm N! / (N1! N2! N3! :  Nm!)сл возможных исходов.

Полиномиальное распределение является одним из мощных инструментов при анализе числовых лотерей. Например, полиномиальному распределению подчиняется выпадение номеров на заданной позиции, его можно использовать при анализе выпадения номеров по поддиапазонам и во многих других задачах возникающих в числовых лотереях. Для начала попробуем научиться отвечать на такой вопрос: Пусть есть набор некоторых данных взятых из  результатов розыгрышей, который должен подчиняться полиномиальному распределению, например, статистика выпадения номера на заданной позиции. Является ли такой набор случайным? Непосредственный анализ вероятностей всех возможных вариантов выпадений (а их ОЧЕНЬ много) представляет собой весьма сложную задачу. Но существует целый ряд способов оценить характеристики распределения основанных на приближенной замене данного распределения (или некоторой функции от него) другим распределением, для которого расчет является более простым. Обычно такой метод выражается в виде некоторого критерия: набор данных считается соответствующим предполагаемому распределению, если специальным образом рассчитанная по этому набору данных величина больше или меньше некоторого табличного значения. Один из самых простых таких критериев основан на том что сумма величин (xi-pi N)2/(pi N) для всех количеств выпадений номеров xi приближенно подчиняется так называемому закону распределения 2m (хи-квадрат с m степенями свободы), для которого имеются таблицы значений и встроенные функции в компьютерных математических пакетах. Критерий формулируется следующим образом: набор данных не является распределенным по полиномиальному закону с вероятностью, например, 95%если сумма величин  (xi-pi N)2/(pi N) больше значения критического значения K(1-0.95) для 2m . Вместо 0.95 можно выбрать другое близкое к единице пороговое значение, это зависит от того, насколько надежный ответ нам требуется.     Приведем пример для лотереи "КЕНО" 20 из 80(Украина).

За 1261 тиражей на первой позиции различные номера выпадали следующим образом:
1(19), 2(14), 3(10), 4(12), 5(17), 6(27), 7(14), 8(14), 9(11), 10(7), 11(14), 12(12), 13(19), 14(7), 15(11), 16(18), 17(12), 18(12), 19(20), 20(14), 21(12), 22(16), 23(13), 24(12), 25(15), 26(18), 27(24), 28(19), 29(16), 30(13), 31(13), 32(17), 33(11), 34(16), 35(15), 36(13), 37(19), 38(16), 39(21), 40(17), 41(20), 42(17), 43(16), 44(9), 45(12), 46(20), 47(19), 48(19), 49(12), 50(14), 51(15), 52(15), 53(14), 54(21), 55(16), 56(17), 57(15), 58(18), 59(17), 60(17), 61(19), 62(11), 63(25), 64(15), 65(25), 66(22), 67(18), 68(14), 69(21), 70(16), 71(15), 72(17), 73(25), 74(15), 75(12), 76(12), 77(12), 78(15), 79(17), 80(12) (в скобках указано количество выпадений на первой позиции)

Соответствующая сумма (xi-p N)2/(p N) (где p = 1/80, N = 1261) получается равна приблизительно 81.6, сравним ее с критическими значениями для распределения 280

r

K(1-r) для 280

K(1-r) для 249

0.9

96.6

62.0

0.95

101.9

66.3

0.99

112.3

74.9

Значение 81.6 значительно меньше критического значения 96.6 (для 0.1) это указывает что распределение номеров на первой позиции в лотерее "КЕНО" по указанному критерию не попадает под подозрение в "неслучайности" с хорошим запасом надежности.

Аналогичный вывод можно сделать и для "Супер Лото" в нем значение суммы (xi-p N)2/(p N) (где p = 1/49, N = 79) равно 48.2, что опять таки меньше чем 0.1-критическое значение 62 для 249 (см. табл.).

Такой же расчет можно сделать и для выпадения номеров на других позициях. Результаты показывают, что этот критерий не находит неслучайности выпадения для всех позиций для обеих лотерей. Это пока не значит, что выпадение действительно абсолютно случайно, этот критерий является односторонним и единственное, что можно сказать, что нет заметного различия в вероятностях выпадения разных номеров на заданной позиции.






Click Now!