Experiment(시행) = Possible outcome set 중 하나를 생성하는 Procedure이다.
Sample space(표본 공간) = Experiment의 Possible outcom set이다.
만약 S가 같은 확률을 가진 Finite sample space, E가 event(S의 Subset)일 때 E의 Probability는 Notation p(E)=∣S∣∣E∣이다.
Notation ≈는 값이 대략 같음을 의미한다.
팁
Example
한 항아리에 파란 공 4개, 빨간 공 5개가 들어 있을 때 항아리에서 선택한 하나의 공이 파란 공일 Probability
Sample space S의 ∣S∣ = 9, 파란 공이 나올 event ∣E∣ = 4로 즉 ∣E∣∣S∣=94이다.
팁
Example
1부터 50까지의 공이 들어있는 통에서 11, 4, 17, 39, 23이 통에 공을 다시 넣을 때와 넣지 않을 때의 순서대로 뽑힐 확률
공을 다시 통에 넣는 경우
이 경우를 Sampling with replacement라고 한다.
매 번 50개 중 1개가 원하는 값이여야 하므로 Probability는 5051=3125000001이다.
공을 다시 통에 넣지 않을 경우
이 경우를 Sampling without replacement라고 한다.
매 번 50개 중 1개, 49개 중 1개, ⋯ 46개 중 1개가 원하는 값이여야 하므로 Probability는 50⋅49⋅48⋅47⋅461=2542512001이다.
Sample space의 Event E에 대해 E의 Complementary event인 E에 대해 p(E)=1−p(E)
Proof E의 Probability를 구하기 위해 ∣E∣=∣S∣−∣E∣임을 이용하여 p(E)=∣S∣∣S∣−∣E∣=1−∣S∣∣E∣=1−p(E)로 증명 가능하다.
팁
Example
길이가 10인 Bit string에 대해 Bit value가 0인 Bit가 적어도 하나 이상 있을 Probability
Solution
Event E를 Bit가 모두 1인 길이가 10인 Bit string의 Probability라고 할 때 p(E)=2101임을 이용하여 1−2101=1−10241=10241023로 해결 가능하다.
정보
Theorem
Sample space S의 Event E1, E2에 대해 p(E1∪E2)=p(E1)+p(E2)−p(E1∩E2)
Proof
Principle of inclusion-exclusion으로 증명 가능하다. p(E1∪E2)=∣S∣∣E1∩E2∣=∣S∣∣E1∣+∣E2∣−∣E1∩E2∣(∵Principleofinclusion−exclusion)=p(E1)+p(E2)−p(E1∩E2)
팁
Example
무작위로 선택된 100 이하의 Positive integer가 2나 5로 나누어 떨어질 Probability
Solution E1을 2로 나누어 떨어지는 Event, E2를 5로 나누어 떨어지는 Event로 둘 경우 E1∩E2는 2와 5로 나누어 떨어지는, 즉 10으로 나누어 떨어지는 Event로 둘 수 있다. p(E1∪E2)=10050+10020−10010=10060=0.6으로 해결 가능하다.
The Monty Hall Three-Door Puzzle
세 개의 문 중 하나의 문 뒤에만 보상이 있을 때 게임 참가자가 문 세 개 중 하나를 고르면 진행자가 선택하지 않은 문들 중 보상이 없는 문을 열었을 때 참가자가 문을 바꾸는 것이 이득일 지 그대로 유지하는 것이 이득일 지 판단
Solution
1. 참가자가 보상이 있는 문을 선택할 Probability는 31이다.
이 때 진행자가 보상이 없는 문을 열더라도 선택한 문을 바꾸는 것과 바꾸지 않는 것 둘 다 보상이 있는 문을 선택했을 때 결과는 달라지지 않는다.
2. 참가자가 보상이 없는 문을 선택할 Probobility는 32이다.
이 때 진행자가 보상이 없는 문을 열게 되면 선택한 문을 바꾸었을 때 이 경우 보상이 있는 문을 선택하게 되므로 항상 보상을 받게 된다.
다른 문을 열고 바꿀 기회를 줄 경우 바꾸었을 때 보상을 받을 Probability는 32로 바꾸는 것이 더 이득이다.
Sample space S가 Finite하거나 Countable한 Outcome을 가진 공간이라고 가정할 때, 각 Outcome set s에 대한 Probability p(s)를 할당할 수 있으며 이 때 두 조건이 충족되어야 한다.
0≤p(s)≤1foreachs∈S
∑s∈Sp(s)=1
위 조건 1은 각 Outcome의 Probability가 0이상 1이하의 Nonnegative integer라는 뜻이고 조건 2는 각 Outcome s의 Probability의 합이 1이 되어야 한다는 뜻이다.
단 Sample space가 Infinite인 경우 ∑s∈Sp(s)는 1에 수렴하는 Infinite series이다.
Sample space S의 모든 Outcome set에서 Function p는 Probability distribution(확률 분포)라고 한다.
팁
Example
공정한 동전을 던졌을 때 Outcome set H(Heads)와 T(Tails)에 어떤 Probability를 부여해야 하는가(1)와 만약 Heads가 Tails보다 두 배 많이 나올 경우의 Probability(2)
Event E의 Conplementary event E는 p(E)=1−p(E)이므로 ∑s∈Sp(s)=1=p(E)+p(E)이다.
Sample space S에 대해 E1, E2의 Union의 Probability는 Principle of include-exclude에 의해 p(E1∪E2)=p(E1)+p(E2)−p(E1∩E2)이다.
위 두 Expresssion을 이용하여 E1,E2,⋯가 Sample space S의Pairwise disjoint event일 때 p(i⋃Ei)=i∑p(Ei)임을 알 수 있다.
두 Outcome을 가지고 있는 Experiment를 Bernoulli trial(베르누이 시행)이라고 한다.
일반적으로 Bernuolli trial에서 Success의 Probability를 p, Failure의 Probability를 q로 나타내며 p+q=1이다.
정보
Theorem
n개의 Mutually independent(상호 독립)인 Bernoulli trial에 대해 k번 Success할 Probability C(n,k)pkqn−k
Proof
n개의 Bernoulli trial이 수행될 때 Outcome은 n-tuple(t1,t2,⋯,tn)로 표현되며 ti=Success이거나 ti=Failure이다. n개의 Trial은 Independent이므로 k개의 Success와 n−k개의 Failure가 발생하므로 각 Trail의 Probability는 pkqn−k이다.
즉 k개의 Success와 n−k개의 Failure를 가진 개수는 C(n,k)이므로 k개의 Success일 Probability는 C(n,k)pkqn−k이다.
Binomial distribution(이항 분포)는 n개의Independent Bernoulli trial의 Success probability p, Failure probability q=1−p일 때 k개의 Success인 Probability를 Notation b(k;n,p)로나타낸다.
즉, 위 Theorem에 의해 b(k;n,p)=C(n,k)pkqn−k이다.
팁
Example
0 Bit가 발생할 Probability가 0.9, 1 Bit가 발생할 Probability가 0.1일 때 Bit가 Independent하게 생성된 10개의 Bit가 생성될 때 정확히 8개의 0 Bit가 생성될 Probability
Solution b(8;10,0.9)=C(10,8)(0.9)8(0.1)2=2!8!10!(0.9)8(0.1)2=45(0.9)8(0.1)2=0.1937102445로 구할 수 있다.
Random variable(확률 변수)은 Expreiment의 Sample space set에서 Real number로의 Function이다.
경고
Warning
Random variable은 Function이다.
Variable(변수)도, Random(무작위)도 아니다.
Random variable X는 Sample space S에서 모든 r∈X(S)에 대해 (r,p(X=r))의 Pair들의 Set으로 정의된다. P(X=r)은 X가 Value r을 취할 Probability를 나타낸다.
Distribution은 일반적으로 각 r∈X(S)에 대해 p(X=r)를 지정함으로 설명할 수 있다.
팁
Example
주사위 한 쌍을 던졌을 때 나오는 수의 합을 X라고 할 때 첫 번째 주사위의 Value i, 두 번째 주사위의 Value j에 대한 36개의 Possible outcome (i,j)에 대한 Random variable의 Value
Solution 2=X((1,1)),3=X((1,2))=X((2,1)),4=X((1,3))=X((2,2))=X((3,1)),5=X((1,4))=X((2,3))=X((3,2))=X((4,1)),6=X((1,5))=X((2,4))=X((3,3))=X((4,2))=X((5,1)),7=X((1,6))=X((2,5))=X((3,4))=X((4,3))=X((5,2))=X((6,1)),8=X((2,6))=X((3,5))=X((4,4))=X((5,3))=X((6,2)),9=X((3,6))=X((4,5))=X((5,4))=X((6,3)),10=X((4,6))=X((5,5))=X((6,4)),11=X((5,6))=X((6,5)),12=X((6,6))으로 확인 가능하다.
The birthday problem은 적어도 두 사람이 같은 생일을 가질 확률이 21를 초과하기 위해 필요한 최소한의 사람 수를 구하는 문제이다.
팁
Example
The birthday problem을 해결
Solution
윤년의 경우 366일이므로 1년을 366으로 가정하고 사람의 생일이 Indepedent할 때 각 생일이 동일한 Probability로 발생할 수 있다. n명의 사람들이 적어도 두 사람이 같은 생일을 가질 Probability를 구하기 위해 모두 다른 생일을 가질 Probability Pn을 계산한다.
적어도 두 사람이 같은 생일을 가질 Probability을 1−Pn으로 두어 Pn을 계산하기 위해 n명의 사람들의 생일을 고정된 순서로 고려한다.
첫 번째 사람의 생일은 다음 사람의 생일과 일치하지 않고, 두번째 사람이 첫 번째 사람과 생일이 다를 확률은 366365이다.
위 과정을 반복하여 j번째 사람(2≤j≤366)이 이미 체크한 j−1명의 사람들과 생일이 다를 확률은 366366−(j−1)=366367−j이다.
즉 Pn=366365366364366363⋯366367−j이다.
구해야 하는 n명 중 적어도 두 사람이 같은 생일을 가질 확률이 21를 초과하기 위해 1−Pn=1−366365366364366363⋯366367−j가 21를 초과하기 위한 계산을 구하면 된다. n=22일 때 1−Pn≈0.475이고 n=23일 때 1−Pn≈0.506이므로 정답은 23이다.
팁
Example
Hashing function의 Collision Probability
Hashing function h(k)가 Database에 저장될 Record의 Key를 Memory의 저장 위치로 Mapping하는 Function일 때 두 개의 다른 Key가 동일한 Memory location으로 Mapping되는 것을 Collision이라고 함
이 때 Collision이 발생하지 않을 Probability
Solution
Probability를 계산하기 위해 무작위로 선택된 Key가 Location에 Mapping될 Probability를 m1 이라고 가정한다.
이 때 m을 Memory size로 가정하고 Hashing function이 Key를 동일한 Probability로 발생시킨다고 가정한다(Key 발생 Probability가 Independent하다.).
또한 선택된 Record의 Key가 Key universe에 있는 모든 Element에 대해 Probabiltiy 역시 동일하다(Key들이 Independent하게 발생한다.).
Key를 k1,k2,⋯,kn으로 가정할 때 h(k1)=h(k2)인 Probability는 mm−1이고, 그 다음 Record는 mm−2으로 진행한다.
즉, Record가 Collision없이 Mapping 될 Probability는 j 번째 Record일 때 mm−(j−1)이다.
The birthday problem과 같이 모두 다른 Hash value를 갖는 Probability를 Pn으로 두었을 때 Pn=mm−1mm−2⋯mm−n+1이다.
이전 과정들에서 다룬 Algorithm들은 모두 Deterministic(결정론적)이다.
Deterministic이란 동일한 Input에 따라 항상 동일한 방식으로 진행되어 같은 Output을 가진다는 뜻이다.
반대로 Random choice에 관한 Algorithm, 즉 Probabilistic algorithm을 Monte Carlo algorithm이라 부른다.
Monte Carlo의 어원은 Monaco의 유명한 카지노의 이름에서 따왔으며, Stan Ulam, Enrico Fermi, John von Neumann에 의해 Monte Carlo method가 도입되었다.
Monte Carlo algorithm은 일련의 Test를 사용하며 각 단계에서 가능한 Output(Response, Answer)은 True이며 추가 반복이 필요없거나 알 수 없을 경우 Unknown으로 표현하며 이는 True나 False일 수 있다는 뜻이다.
Monte Carlo algorithm은 Error가 발생할 수 있다. p를 Test의 Output이 True일 Probability라고 가정할 경우 Unknown일 경우의 Probability는 자연히 1−p가 된다.
Algorithm이 n번 반복할 때 Output이 모두 Unknown일 경우 Error probability는 (1−p)n이 된다. p=0일 때 Probability는 Test 수가 증가할 때 마다 0에 접근하고 Algorithm의 답이 True일 때는 Output이 True가 될 Probability는 1에 접근하게 된다.
팁
Example
Manufacturer가 n이라는 크기의 Batch로 Processor chip을 주문할 때 Chip maker는 Batch의 모든 Chip이 양호하도록 일부 Batch만 Test하여 Test 중 발견된 Bad chip을 Good chip으로 교체함
Test되지 않은 Batch에서 Bad chip의 Probability가 0.1일 때 PC manufacturer는 Batch의 각 Chip을 Test하여 양호한 지 확인을 함
Test가 n번 수행될 때 Test 소요 시간초가 O(n)일 때 PC manufacturer가 Chip maker가 Batch를 테스트 했는지 여부를 더 적은 시간에 확인이 가능한 지 파악
Solution
Monte Carlo algorithm을 사용(Error 발생 감안)하여 Batch가 Test되었는 지 파악하기 위해 Batch에서 임의의 Chip을 확인하여 Test하는 방식을 활용한다.
Bad chip이 발견된 경우 Algorithm에서 True를, 그렇지 않은 경우를 Unknown으로 두었을 때 k개의 Chip을 확인하여 True라는 답이 나오지 않으면 Algorithm은 False로 종료(Chip maker가 Batch의 모든 Chip을 Test했다고 가정)한다.
이 Monte Carlo algorithm이 잘못된 Output을 내는 방법은 Test되지 않은 Batch가 Test된 것으로 결론지을 때이다.
Good chip이나 Test되지 않은 Batch에서 온 경우 1−0.1=0.9이므로 k번 Test 할 경우 Batch에서 서로 다른 Chip을 Test하는 Event는 Independent이므로 Test되지 않은 Batch가 주어졌을 때 Algorithm의 k 단계가 Unknown을 Output으로 가질 Probability는 0.9k이다. k value가 커질 수록 이 Algorithm의 정확도를 높일 수 있다.
예시로 66개의 Chip을 확인할 경우 0.966의 Probability로 이 Batch가 Test되었는 지 알 수 있다.
어떤 Set S의 Element가 특정 Property를 가지지 않을 Probability가 1보다 작을 경우, S에는 이 Probability를 가진 Element가 존재한다.
정보
Theorem
만약 Integer k가 k≥2를 만족할 경우 R(k,k)≥22k이다.
Proof
이 Theorem이 2와 3에도 성립한다. R(2,2)=2,R(3,3)=6임을 이전 과정에서 확인하였기 때문이다. k가 4 이상일 때 Probabilistic method를 사용하여 파티에 22k미만의 사람이 있을 경우 그 중 k명은 서로 친구이거나 서로 적일 가능성이 없음을 보여주어 증명한다.
즉 R(k,k)≥22k임을 나타내어야 한다.
Probabilistic method를 사용하기 위해 두 사람이 친구일 Probability와 적일 Probability를 21로 놓고 파티에 n명이 존재한다고 가정한다.
이 파티에서 k명의 서로 다른 Set은 (kn)가 존재하며 이를 S1,S2,⋯,S(kn)으로 나열한다. Ei를 Si의 모든 k명의 사람이 서로 친구이거나 적인 Event라고 할 때 그 Probability는 p(⋃i=1(kn)Ei)와 같다. Si에는 k명 존재하기에 (2k)=2k(k−1) 쌍의 사람들이 존재한다.
따라서 Si의 모든 k명이 모두 서로 친구일 Probability와 적일 Probability는 2212k(k−1)이다.
위 식들과 Boole's Inequality를 이용하여 p(⋃i=1(kn)Ei≤∑i=1(kn)p(Ei)=(kn)2(21)2k(k−1)이고, (kn)≤2k−1nk이므로 (kn)2(21)2k(k−1)≤2k−1nk2(21)2k(k−1)이고, n<22k이므로 k≥4일 때(kn)2(21)2k(k−1)<2k−12k(2k)2(21)2k(k−1=22−(2k)≤1이다.
따라서 파티에서 k명의 서로 친구이거나 서로 적이 없는 Set이 존재하지 않는 Event의 Probability는 0보다 크다. n<22k일 때 k명 중 어떤 Subset도 서로 친구나 적이 아닌 Set이 적어도 하나는 존재한다는 결론이 나오므로 증명 가능하다.
E,F가 Sample space S의 Event일 때 p(E)=0&p(F)=0일 때 p(F∣E)=p(E∣F)p(F)+p(E∣F)p(F)p(E∣F)p(F)
Proof
Conditional probability에 따라 p(F∣E)=p(E)p(E∩F)이고 p(E∣F)=p(F)p(E∩F)이다.
그러므로 p(E∩F)=p(F∣E)p(E)이고 p(E∩F)=p(E∣F)p(F)이다.
두 등식을 이용하여 p(F∣E)p(E)=p(E∣F)p(F)임을 알 수 있고 양 변에 p(E)를 나눠 p(F∣E)=p(E)p(E∣F)p(F)임을 알 수 있다.
증명을 위해 p(E)=p(E∣F)p(F)+p(E∣F)p(F)임을 보이기 위해 E=E∩S=E∩(F∪F)임과 E∩F와 E∩F가 Disjoint임을 이용하여 p(E)=p(E∩F)+p(E∩F)임을 알 수 있다.
앞전 식들을 이용하여 p(F∣E)=p(E∣F)p(F)+p(E∣F)p(F)p(E∣F)p(F)임을 증명할 수 있다.
정보
Theorem
Generalized Bayes' Theorem
E가 Sample space S의 Event이고, F1,F2,⋯,Fn을 서로 Mutually excvlusive event(⋃i=1nFi=S)라고 할 때 p(E)=0,p(Fi)=0(fori=1,2,⋯,n)일 때 p(Fj∣E)=∑i=0np(E∣Fi)p(Fi)p(E∣Fj)p(Fj)
Proof Fi는 서로 Mutually exclusive이기에 Fi끼리는 Disjoint이다.
즉, E=⋃i=1n(E∩Fi)이다.
위 Bayes' Theorem을 반복 적용하여 증명 가능하다.
팁
Example
한 사람이 100000명 중 1명 정도의 Probability로 특정한 희귀 병을 앓고 있다고 가정할 때 이 병에 대한 진단 테스트는 질병이 있는 사람에게 시행할 경우 99%의 정확도를 보이며 질병이 없는 사람에게는 99.5%의 정확도를 가지고 있을 때
a. 양성인 사람이 실제로 그 질병을 가질 Probability
b. 음성인 사람이 실제로 그 징병이 없을 Probability
Solution
a: F를 한 사람이 양성인 Event, E를 한 사람의 테스트 결과가 양성인 Event로 놓았을 때 p(F∣E)를 계산해야 한다.
Bayes' theorem을 이용해 구하기 위해 p(E∣F),p(E∣F),p(F),p(F)를 구해야 한다. p(F)=1000001=0.00001,p(F)=0.99999,p(E∣F)=0.99,p(E∣F)=0.995임을 이용하여 대입하면 p(F∣E)=(0.99)(0.00001)+(0.005)(0.99999)(0.99)(0.00001)≈0.002로 계산 가능
b: Bayes' theorem을 이용해 p(F∣E)=(0.995)(0.99999)+(0.01)(0.00001)(0.955)(0.99999)≈0.9999999로 계산 가
E-amil의 Spam을 걸러내기 위한 도구 중 최초의 도구 중 하나는 Bayes' theorem을 이용하여 만든 Bayesian spam filter이다.
Bayesian spam filter는 특정 단어 w에 대해 w가 Spam E-mail message에서 나타날 Probability는 Spam으로 알려진 대량의 Message set에서 w가 나타나는 횟수와 Spam이 아닌 대량의 Message set에서 w가 나타나는 횟수를 통해 추정한다.
Spam인 Message set B, Spam이 아닌 Message set G에 대해 B,G에서 발생하는 단어를 식별하여 각 단어가 포함된 Message 수를 세어 w가 포함된 Message 수를 각각 nB(w),nG(w)라고 할 때 Spam message가 단어 w를 포함하는 Probability p(w), Spam이 아닌 Message가 단어 w를 포함하는 Probability를 q(w)라고 할 때 p(w)=nB(w)/∣B∣, q(w)=nG(w)/∣G∣이다.
단어 w를 포함하는 새로운 E-mail message를 받았을 때 S를 해당 Message가 Spam인 Event, E가 Message가 단어 w를 포함하는 Event일 때 Bayes' theorem에 따라 p(S∣E)=p(E∣S)p(S)+p(E∣S)p(S)p(E∣S)p(S)가 Message가 단어 w를 포함할 때 Spam일 Probability이다.
Formula 적용을 위해 p(S)와 p(S)의 Probability를 추정한다.
단순화를 위해 p(S)=p(S)=21일 때 p(S∣E)=p(E∣S)+p(E∣S)p(E∣S)로 단어 w를 포함한 Message가 Spam일 Probability를 나타낼 수 있다.
추가적으로 Message가 Spam일 때 단어 w가 포함될 Conditional probability p(E∣F)를 p(w), p(E∣S)를 q(w)로 추정한다면 Message가 단어 w를 포함할 때 해당 Message가 Spam일 Probability r(w)는 r(w)=p(w)+q(w)p(w)이다.
팁
Example
"Rolex"라는 단어가 Spam으로 알려진 2000개의 Message 중 250개에서 발생하고 Spam이 아닌 Message 1000개에서 5개가 발생할 때 Message가 단어"Rolex"를 포함할 때 Spam 처리(단, 들어오는 Message가 Spam일 Probability은 21, Message가 Spam으로 거부될 기준이 0.9)
Solution
"Rolex"라는 단어가 Spam, Non-spam message에 나타나는 횟수를 사용해 p("Rolex")=2000250=0.125, q("Rolex")=10005=0.005, 새 Message가 Spam일 Probability가 21임을 이용해 r("Rolex")=p("Rolex")+q("Rolex")p("Rolex")=0.125+0.0050.125=0.130.125≈0.962이므로 이 Message는 Spam으로 처리된다.
앞전 Generalized Bayes' theorm을 이용하여 다양한 Spam으로 추정하는 단어 wi가 많을 수록 Spam 유무를 정확히 판단할 Probability가 증가한다. Ei가 단어 wi를 포함하는 Event라고 할 때 수신되는 Spam과 Non-spam의 수가 동일할 때 Event Ei∣S가 Independent일 경우 p(S∣⋂i=1kEi)=∏i=1kp(wi)+∏i=1kq(wi)∏i=1kp(Ei∣S)이다.
즉, 단순화 하여 r(w1,w2,⋯,wk)=prodi=1kp(wi)+∏i=1kq(wi)prodi=1kp(wi)이다.
Random variable의 Expected value(기댓값)은 Sample space에 있는 모든 Element에 대해 그 Element의 Probability와 해당 Element에서의 Random variable의 Value를 모두 곱한 Value를 합산한 것이다.
즉, Expected value는 Ramdom value의 Weighted average(가중 평균)이다.
Ramdom variable X의 Expected value는 Sample space S에 대해 E(X)=∑s∈Sp(s)X(s)이다.
팁
Example
주사위의 Expected value
Solution
주사위는 총 6개의 Value를 가지고 1에서 6까지이므로 E(x)=126(1+6)=27
정보
Theorem
X가 Random variable이고 p(X=r)이 X=r일 Probability이고, p(X=r)=∑s∈S,X(s)=rp(s)일 때 E(X)=∑r∈X(s)p(X=r)r
Proof X가 Range X(S)를 가진 Random variable이라고 가정할 때 p(X=r)이 Random variable X가 Value r을 가질 확률이라고 할 때 p(X=r)는 X(s)=r인 Outcome s의 Sum이다.
따라서 E(X)=∑r∈X(S)p(X=r)r이 성립한다.
팁
Example
공정한 주사위 한 쌍을 던졌을 때 나오는 숫자의 합의 Expected value
X를 두 주사위 Value의 sum의 Random variable이라고 할 때 총 36개(6×6)의 Outcome에 의해 X의 Range는 {2,3,4,5,6,7,8,9,10,11,12}가 된다. p(X=2)=p(X=12)=361,p(X=3)=p(X=11)=362,p(X=4)=p(X=10)=363,p(X=5)=p(X=9)=364,p(X=6)=p(X=8)=365,p(X=7)=366이므로E(X)=36(2+12)+2(3+11)+3(4+10)+4(5+9)+5(6+8)+6∗7=3614∗15+6∗7=7이다.
정보
Thoerem
n개의 Independent Bernoulli trial을 수행할 때 Success probability가 p일 경우 Sucess의 Expected number는 np이다.
Proof X를 n번의 trial에서 Success number에 해당하는 Random variable일 때 p(X=k)=C(n,k)pkqn−k이기에 E(X)=∑k=1nkp(X=k)=∑k=1nkC(n,k)pkqn−k=∑k=1nnC(n−1,k−1)pkqn−k=np∑k=1nC(n−1,k−1)pk−1qn−k=np∑j=0n−1C(n−1,j)pjqjn−1−j=np(p+q)n−1=np
Xi(i=1,2,⋯,n)가 S의 Random variable이고 a,b가 Real number일 때
1. E(X1+X2+⋯+Xn)=E(X1)+E(X2)+⋯+E(Xn)
2. E(aX+b)=aE(X)+b
Proof n=2일 때 (1)은 쉽게 증명된다. E(X1+X2)=∑s∈Sp(s)(X1(s)+X2(s))=∑s∈Sp(s)X1(s)+∑s∈Sp(s)X2(s)=E(X1)+E(X2)
비슷한 방법으로 (2)도 전개하여 해결한다. E(aX+b)=∑s∈Sp(s)(aX(s)+b)=a∑s∈Sp(s)X(s)+b∑s∈Sp(s)=aE(X)+b∵∑s∈Sp(s)=1
팁
Example
공정한 주사위 한 쌍을 던졌을 때 나오는 숫자의 합의 Expected value(이전에 해결한 Example이나 앞전 Theorem을 이용하여 해결)
Solution
Random variable X1,X2를 X1(i,j)=i,X2=(i,j)=j로 설정하여 X1은 첫 주사위, X2는 두 번째 주사위에서 나타나는 숫자로 가정한다. E(X1)=E(X2)=27이므로 두 주사위를 굴렸을 때 나오는 숫자의 합의 Expected value는 X1+X2=7로 해결 가능하다.
팁
Example
직원이 식당에서 n명의 손님의 모자를 확인하였으나, 모자에 번호를 남기는 것을 깜빡하였을 때 손님들이 모자를 찾으러 왔을 때 무작위로 반환된 모자 중 정확히 반환되는 모자의 Expected value
Solution X를 올바른 모자를 받은 사람 수의 Random variable로 설정한다. Xi는 i번째 사람이 올바른 모자를 받으면 1, 그렇지 않다면 0인 Random variable이 되며 X=X1+X2+⋯+Xn이 된다. i번째 사람이 올바른 모자를 받을 Probability는 n1이므로 6.4의 첫 번째 Theorem에 의해 모든 i에 대해E(Xi)=1∗p(Xi=1)+0∗p(Xi=0)=1∗n1+0=n1이고 6.4의 세 번째 Theorem에 의해 E(X)=E(X1)+E(X2)+⋯+E(Xn)=n∗n1=1로 해결 가능하다.
팁
Example
주어진 Permutation에서 (i,j)라는 Ordered pair는 i<j이나 Permutation에서 j가 i보다 앞에 배치되는 경우 inversion이라고 함
첫 n개의 Positive integer의 임의의 Permutation에서 Inversion 개수의 Expected value
Solution Ii,j를 첫 n개의 Positive integer의 Permutation의 Oredered pair (i,j)에 대해 i≤j이면 0, i>j이면 1일 때 X를 Permutation의 Inversion 개수에 해당하는 Random variable로 둘 경우 X=∑1≤i<j≤nIi,j가 된다. i≤j와 i>j는 동일한 Probability를 가지므로 모든 Pair (i,j)에 대해 E(Ii,j)=1∗p(Ii,j=1)+0∗p(Ii,j=0)=1∗21+0=21이다. (2n)개의 (i,j) Pair가 존재하므로 1≤i<j≤n을 만족하는 Expected valuesms E(X)=∑1≤i<j≤nIi,j=(2n)∗21=4n(n−1)로 첫 n개의 Positive integer를 사용하는 Permutation에서 평균적으로 4n(n−1)개의 Inversion이 존재함을 확인할 수 있다.
Algorithm을 Average-case computational complexity(평균 사례 계산 복잡도)를 계산하는 것은 Random variable의 Expected value를 계산하는 것과 같다.
Experiment의 Sample space의 가능한 Input을 ajj=1,2,…,n으로 놓고 X를 Algorithm이 aj를 Input으로 받을 때 사용하는 Operation 개수의 Random variable로 둘 경우 Algorithm의 Average-case computational complexity는 E(X)=∑j=1np(aj)X(aj)이다.
팁
Example
x를 각 Element와 순차적 비교해 x를 찾을 때 List에 x가 있을 Probability를 p, x가 n개의 Element중 어느 것이든 동일한 Probability로 선택될 경우의 Linear search algorithm의 Average-case complexity
Solution
이전 과정에서 x가 List의 i번째 Element와 같은 경우 2i+1회의 Operation이 사용됨과 x가 List에 없을 경우 2n+2만큼의 Operation이 사용됨을 활용하여 x가 ai와 같을 Probability는 np이고 x가 List에 없을 Probability는 q=1−p이므로 E=n3p+n5p+⋯+n(2n+1)p+(2n+2)q=np(3+5+⋯+(2n+1))+(2n+2)q=np((n+1)2−1)+(2n+2)q=p(n+2)+(2n+2)q이다.
만약 x가 List에 있을 Probability가 21일 경우 p=43,q=41로 E=43(n+2)+42n+2=45n+8가 된다.
팁
Example
n개의 Element가 있는 Insertion sort의 Average-case complexity
Solution X를 n개의 다른 Element로 구성된 List a1,a2,…,an를 Insertion sort로 정렬할 때 사용되는 Operation 수의 Random variable로 둘 경우 E(X)는 평균 Operation 수가 된다. X=X2+X3+⋯+Xn일 때 E(X)=E(X2+X3+⋯+Xn)=E(X2)+E(X3)+⋯+E(Xn)이다. pj(k)를 List의 처음 j개의 Element 중 Max value가 k번째 위치에 있을 Probability로 정의할 경우 List의 Element들이 무작위로 분포되어 있으므로 pj(k)=j1가 된다. Xi(k)가 ai가 정렬된 후 k번째 위치에 삽입될 때 Insertion sort가 사용하는 Operation 수라면 Xi(k)=k가 된다. ai가 처음 i개의 위치 중 어느 곳에나 삽입될 수 있으므로 E(Xi)=∑k=1ipi(k)∗Xi(k)=∑k=1ii1∗k=i1∑k=1ik=2i+1이다.
결과적으로 E(X)=∑i=2nE(Xi)=∑i=2n2i+1=21∑j=3n+1j(∵j=i+1)=212(n+1)(n+2)−21(1+2)=4n2+3n−4이므로 Insertion sort가 n개의 Element를 정렬하는 데 필요한 평균 Operation 수는 4n2+3n−4이며 Notation으로 Θ(n2)이 된다.
Geometric distribution(기하 분포) = 동일한 Bernoulli distribution(Random variable의 1회 실행 결과가 Binary value로 이루어진 Distribution)을 따르는 Independent 반복에서 처음으로 목표 Value를 갖기까지의 시도 횟수를 Random variable로 갖는 Distribution이다.
정보
Theorem
Random variable X가 Parameter p를 가진 Geometric distribution을 가진다면 E(X)=p1
팁
Example
동전을 던졌을 때 뒷면이 나올 Probability를 p라고 가정할 때 뒷면이 나올 때 까지 동전을 반복해서 던질 때의 Expected value
Solution
Sample space는 임의의 수의 앞면(H)와 제일 뒤에 뒷면(T)이 오는 Sequence로 구성된다.
따라서 Sample space S={T,HT,HHT,HHHT,HHHHT,…}가 된다.
Sample space의 Element의 Probability를 구하기 위해 동전 던지는 Event가 Independent이며 앞면이 나올 Probability는 1−p=q일때 p(T)=p,p(HT)=pq,p(HHT)=pq2이기 때문에 뒷면이 나올때 까지 n번 던지는 Probability는 pqn−1이다. X를 Sample space의 Element에서 던진 횟수와 같은 Random variable이라고 할 때 X(T)=1,X(HT)=2,X(HHT)=3,…이다.
즉 P(X=j)=pqj−1이므로 E(X)=∑j=1∞jp∗p(X=j)=∑j=1∞jpqj−1=p∑j=1∞j(1−p)j−1=p∗p21=p1이다.
따라서 동전이 뒷면이 나올 때까지 던지는 Expected value는 p1이므로 공정한 동전일 경우 p=21이므로 2이다.
Sample space S에서 Random variable X,Y가 모든 Real number r1,r2에 대해p(X(s)=r1andY(s)=r2)=p(X(s)=r1)∗p(Y(s)=r2)일 때 Independent이다.
정보
Theorem
Sample space S의 X,Y가 Independent random variable이라면 E(XY)=E(X)E(Y)
Proof X,Y는 Independent random variable이기에 E(XY)=∑s∈SX(s)Y(s)p(s)=∑r1∈X(S),r2∈Y(s)r1r2∗p(X(s)=r1andY(s)=r2)=∑r1∈X(S),r2∈Y(s)r1r2∗p∗(X(s)=r1)∗p(Y(s)=r2)=[∑r1∈X(S)r1p(X(s)=r1)]∗[∑r2∈Y(s)r2p(Y(s)=r2)]=E(X)E(Y)
으로 증명 가능하다.
팁
Example
동전을 두 번 던졌을 때 나오는 앞면의 수를 세는 Random variable X와 뒷면의 수를 세는 Random variable Y가 Independent random variable인지 확인
Solution
간단히 보았을 때 E(X)=E(Y)=241+121+041=1로 확인 가능하다. XY는 양쪽 다 앞면이거나 뒷면일 때 0이 나오므로 E(XY)=121+021=21이다. E(X)E(Y)=E(XY)이므로 X,Y는 Independent random variable이 아니다.
X를 Sample space S의 Random variable이라고 할 때 X의 Variance(분산)은 Notation V(X)로 표기하며 V(X)=∑s∈S(X(s)−E(X))2p(s)로 정의된다. X의 Standard deviation은 Notation σ(X)로 표기하고 V(X)=σ(X)이다.
정보
Theorem
X가 Sample sapce S의 Random variable일 때 V(X)=E(X2)−E(X)2
Proof V(X)=∑s∈S(X(s)−E(X))2p(s)=∑s∈SX(s)2p(s)−2E(X)∑s∈SX(s)p(s)+E(X)2∑s∈Sp(s)=E(X2)−2E(X)E(X)+E(X)2∵∑s∈Sp(s)=1=E(X2)−E(X)2
로 증명 가능하다.
정보
Theorem
X,Y가 Sample space S에서 두 개의 Independent random variable일 경우 V(X+Y)=V(X)+V(Y)
Proof V(X+Y)=E((X+Y)2)−E(X+Y)2=E(X2+2XY+Y2)−(E(X)+E(Y))2=E(X2)+2E(XY)+E(Y2)−E(X)2−2E(X)E(Y)−E(Y)2=(E(X2)−E(X)2)+(E(Y2)−E(Y)2)=V(X)+V(Y)
로 증명 가능하다.
추가적으로 Xi,i=1,2,…,n에 해당하는 V(X1+X2+⋯+Xn)=V(X1)+V(X2)+⋯+V(Xn) 역시 성립한다.
팁
Example
두 개의 주사위를 굴렸을 때 Random variable X의 Variance와 Standard deviation
단 X((i,j))=i+j, (i,j는 첫 번째, 두 번째 주사위의 값)
Solution X1,X2로 나누어 X1((i,j))=i,X2((i,j))=j인 Random variable로 정의한다.
이 때 X=X1+X2이며 X1,X2는 Independent random variable이다.
따라서 V(X)=V(X1)+V(X2)이기에 V(X1)=V(X2)임을 이용해서 V(X)=2V(X1)=2((E(X12)−E(X1)2)=2(61(12+22+32+42+52+62)−(27)2)=2(691−449)=635
임을 구할 수 있다.
따라서 V(X)=635,σ(X)=635이다.
팁
Example
n개의 Independent Bernoulli trial이 수행될 때 Success probability p에 대한 Success 수의 Variance
Chebyshev's inquality는 Probability distribution 없이 Average(=Expected value)와 Standard deviation을 이용하여 Random variable X가 Average μ에서 rσ만큼 떨어진 Probability를 구할 수 있다.
정보
Theorem
Chebyshev's inquality
Sample space S의 Probability function p를 가진 Random variable X에 대해 Positive real number r에 대해 p(∣X(s)→E(X)∣≥r)≤r2V(X)
Proof
Event A를 A={s∈S∣(∣X(s)−E(X)∣)≥r}라고 가정했을 때 p(A)≤r2V(X)임을 증명하면 된다. V(X)=∑s∈S(X(s)−E(X))2p(s)=∑s∈A(X(s)−E(X))2p(s)+∑s∈/A(X(s)−E(X))2p(s)이고, 각 항이 Nonnegative이므로 두 번째 등식의 합의 뒤 역시 Nonnegative이다. A의 각 Element s에 대해 (X(s)−E(X))2≥r2이므로 두 번째 등식의 합의 앞은 최소 ∑s∈Ar2p(s)보다 크다.
따라서 V(X)≤∑s∈Ar2p(s)=r2p(A)이므로 r2V(X)≥p(A)이기에 성립한다.
팁
Example
공정한 동전을 n번 던졌을 때 나오는 뒷면 수에 대한 Chebyshev's inequality
Solution X를 Success probability가 21인 n개의 Independent Bernoulli's trial의 Success 수에 해당하는 Random variable이라고 할 때 E(X)=2n이고 V(X)=npq=4n이다.
이를 Chebyshev's inequality를 이용하여 p(∣X(s)−2n∣≥n)≤4n/(n)2=41로 공정한 동전을 n회 던졌을 때 나오는 뒷면의 수는 평균에서 n만큼 벗어날 확률은 25%를 초과하지 않는다.