| Kategorie: nauka
17 listopada 2020, 20:49
Problem polega na oszacowaniu wartości oczekiwanej w grze losowej polegającej rzucaniu monetą do momentu otrzymania orła. Wynikiem (wygraną) takiej gry jest 2^k, gdzie k to ilość oddanych rzutów. Stosując typowe metody obliczania wartości oczekiwanej, czyli sumując iloczyny poszczególnych wyników z ich prawdopodobieństwami, otrzymujemy:
Suma ta dąży do nieskończoności - można z tego wysunąć wniosek, że przystępując do tej gry opłaca się postawić dowolną kwotę. Paradoks polega na tym, że w rzeczywistych doświadczeniach średnia wygrana nie przekracza 5, co jest wyraźnie mniej od nieskończoności.
Wynika to z faktu, że nieskończona wygrana jest możliwa przy założeniu, że możemy rozegrać nieskończoną ilość gier, dzięki czemu uda się wygrać w końcu taką kwotę, która pokryje wszystkie wcześniejsze straty. W rzeczywistości mamy możliwość rozegrania skończonej ilości gier, a wysokie wygrane są w praktyce niemożliwe, gdyż prawdopodobieństwo ich uzyskania jest zbliżone do 0 (zwykle gra kończy się już po 2 rzutach).
Problem ten jest opisany w Wikipedii, gdzie podane są różne sposoby jego teoretycznego rozwiązania. Ja będę się tu głównie opierał na jej anglojęzycznej wersji.
Pierwsze rozwiązanie polega na tzw. teorii oczekiwanej użyteczności polegającej na wprowadzeniu ograniczającej funkcji użyteczności - np. logarytmicznej lub pierwiastkowej. Jest to próba sztucznego ominięcia problemu, podaje różne wyniki w zależności od przyjętej metody i faktyczne go nie rozwiązuje. Podobnie jest w przypadku ważonych prawdopodobieństw.
Moje rozwiązanie jest zbliżone do opisanej metody skończonych loterii, które dość pokrętnie tłumaczone jest ograniczonymi zasobami kasyna, a w związku z tym - liczbą gier.
Najprościej jest przyjąć, że rozgrywamy określoną ilość gier (choćby z powodu ograniczonego czasu). Im więcej prób wykonamy, tym większa szansa na uzyskanie większego wyniku. Jeśli np. prawdopodobieństwo danego wyniku wynosi 1/16, to można się spodziewać, że aby go uzyskać musimy rozegrać ok. 16 gier, ale średnia wartość uzyskana z 16 gier wynosi 4. Czyli przy założeniu, że rozegramy L gier - wartość oczekiwana wynosi:
E = log2 L
Wartość ta jest zgodna z symulacjami komputerowymi, jednak stabilne wyniki otrzymujemy dopiero przy ilości gier liczonej w miliardach, średnie otrzymywane z mniejszej ilości gier są wyraźnie "rozrzucone" wokół spodziewanej wartości. Wzór ten jest prawidłowy dla klasycznej wersji tej gry, opartej na funkcji 2^k. Nie przeprowadzałem symulacji dla funkcji szybciej rozbiegających, np. 3^k, przypuszczam jednak, że po odpowiedniej modyfikacji można wyprowadzić wzór prawidłowy również dla takich funkcji, jednak stabilne wyniki otrzymamy przy jeszcze większej ilości powtórzeń.