1. 順列
順列とは順序を考えて重複を許さない場合の数を言います。
例えば、5人で3つの役職(会長、副会長、書記)を選ぶ場合を考えます。ひとりが複数の役職を兼務できない(重複を許さない)場合、何通りの選び方があるかと言えば、
- 最初に会長を選ぶ選び方は5人の中から選ぶので5通り
- 会長を選んだ後、残り4人から副会長を選ぶ選び方は4通り。なのでここまでの選び方は\(5*4 = 20\)通り。
- 書記は、残り3人から選ぶので3通り。2までで20通りあったので\(20*3=60\)通り。
- まとめると\(5\times 4\times 3=60\)通り。
これを順列を表す英語のpermutationからPを用いて
\({}_5P_3=5\times 4\times 3=60\)
と表します。これを一般化するために階乗を用いて表すと、
\({}_5P_3=\frac{5!}{2!}=\frac{5!}{(5-3)!}\)
となります。これを一般化すると
\({}_nP_r=\frac{n!}{(n-r)!}\)
と表すことができます。
1.1. 階乗について
階乗は、\(n!=n\times (n-1)\times \cdots \times 1\)で計算できます。
\(4!=4\times3\times2\times1=24\)
\(3!=3\times2\times1=6\)
\(2!=2\times1=2\)
\(1!=1\)
では、\(0!\)はどうなるでしょう?
先に階乗を計算した式を逆に見ていくと
\(3!=4!/4=24/4=6\)
\(2!=3!/3=6/3=2\)
\(1!=2!/2=2/2=1\)
となることは自明です。これをこのまま\(0!\)にあてはめてみると、
\(0!=1!/1=1\)
となります。\(0!=1\)は定義だといういい方もありますが、上記のように覚えると理解しやすいように思います。
以上から、階乗は次のように表せます。
\((n+1)! = (n+1) \times n! \) \((n\ge0)\)
2. 組合せ
組合せとは順序を考えないで重複を許さない場合の数を言います。
例えば、5人のうち3人が買い出しに行く場合を考えます。ひとりが複数人分買い出しに行くことができない(重複を許さない)場合、何通りの選び方があるかと言えば、まずは先の順列の計算と同じ計算をします。そうすると60通りの選び方が出てきます。
しかし、ちょっと待ってください。AさんBさんCさんの順序で選ばれた場合とAさんCさんBさんの順序で選ばれた場合、結局選ばれた3人は同じです。ではAさんBさんCさんの並び方は何通りあるかといえば\(3!=3\times2\times1=6\)通りあります。順序を考えると、順序を考えない場合の6倍の選び方があるわけです。
これをまとめると、5人のうち3人が買い出しにいく場合の選び方は\(60/6=10\)通りであることがわかります。
これを組合せといい英語のcombinationから
\({}_5C_3=\frac{ {}_5P_3 }{3!}=\frac{60}{6}=10\)
となります。これを一般化すると、
\({}_nC_r=\frac{ {}_nP_r }{r!}=\frac{1}{r!}\times\frac{n!}{(n-r)!}\)
と表すことができます。
3. 場合の数
順列と組合せを見てきましたが、これらはどちらも「重複を許さない」「場合の数」でした。
そもそも「場合の数」とは「ある事柄について起こりうるすべての場合を数え上げたときの総数」を言います。
ものの個数の数え方には下図のような4通りの数え方があります。先に「順列」と「組合せ」の「重複を許さない」場合の数を見てきましたが、重複を許す場合の数もあります。ここではご紹介だけしておきます。ご興味のある方は調べてみてはいかがでしょうか。
順序を考える | 順序を考えない | |
重複を許さない | 順列 \({}_3P_2=3 \times 2=6\)通り | 組合せ \({}_3C_2=\frac{ {}_3P_2 }{2!}=\frac{ 3 \times 2}{2 \times 1}=3\)通り |
重複を許す | 重複順列 \({}_3\Pi_2=3 ^3=9\)通り | 重複組合せ \( {}_3 \mathrm{H}_2={}_{3+2-1}C_2=\frac{4\times3}{2\times1}=6\)通り |
4. 確率とその基本定理
4.1. 確率
確率とは、ある事象が発生する可能性を数値で表したものです。確率は通常、0から1の間の値で表され、0は「絶対に起こらない」、1は「絶対に起こる」ことを意味します。確率の基本的な定義は次の通りです。
\[ P(A) = \frac{\text{事象 } A \text{ が起こる場合の数}}{\text{全ての可能な場合の数}} \]
例えば、サイコロを一回振ったときに、3の目が出る確率は1/6です。
4.2. 加法定理
加法定理は、二つ以上の事象が同時に起こる確率を求める方法です。排反事象(お互いに同時に起こらない事象)の場合、次のように計算されます。
\[ P(A \cup B) = P(A) + P(B) \]
もし、事象AとBが排反でない場合は、次のように修正します。
\[ P(A \cup B) = P(A) + P(B) – P(A \cap B) \]
4.3. 乗法定理
乗法定理は、二つの事象が同時に発生する確率を求める定理です。事象AとBが独立である場合、次のように計算します。
\[ P(A \cap B) = P(A) \times P(B) \]
もし、AとBが独立でない場合、条件付き確率を用いる必要があります。
4.4. 余事象
余事象とは、ある事象が起こらない場合のことを指します。事象Aの余事象をA’と表すと、A’の確率は次のように表されます。
\[ P(A’) = 1 – P(A) \]
この考え方は、「ある事象が起こらない確率は、その事象が起こる確率の補数である」ことを示しています。
4.5. 同時確率
同時確率とは、二つ以上の事象が同時に起こる確率のことです。乗法定理を使って計算することが多いです。同時確率は事象が独立であるか依存しているかによって異なります。
同時確率の例:
2つのサイコロを同時に振り、両方とも6が出る確率は、
P(6 and 6) = P(6) × P(6) = 1/6 × 1/6 = 1/36
4.6. 条件付き確率
条件付き確率とは、ある事象が発生したという条件の下で、別の事象が発生する確率を指します。事象Bが起こった条件での事象Aの確率は次のように表されます。
\[ P(A | B) = \frac{P(A \cap B)}{P(B)} \]
この定理は、特に事象が相互に関連している場合に重要です。
条件付き確率の例:
トランプから1枚引いて、それがハートであるという条件下でエースである確率は、
P(エース|ハート) = P(ハートのエース) / P(ハート) = (1/52) / (13/52) = 1/13
4.7. 原因の確率(ベイズの定理)
ベイズの定理は、ある観測データに基づいて、ある原因が発生した確率を求めるための重要な定理です。ベイズの定理は次のように表されます。
\[ P(A | B) = \frac{P(B | A) \times P(A)}{P(B)} \]
この定理は、条件付き確率を逆に計算する際に利用されます。
原因の確率(ベイズの定理)の例:
ある病気の罹患率が1%で、検査の精度が95%(陽性的中率)の場合、検査で陽性と判定された人が実際に病気である確率は、
P(病気|陽性) = P(陽性|病気) × P(病気) / P(陽性) = 0.95 × 0.01 / (0.95 × 0.01 + 0.05 × 0.99) ≈ 0.16
つまり、約16%となります。
5. 確率分布と期待値
5.1. 確率分布(離散型)
離散型確率分布は、取る値が離散的な場合の確率分布を指します。具体例として、サイコロの目やコインの表裏などが挙げられます。代表的な離散型確率分布には、二項分布やポアソン分布があります。
例: サイコロを1回振って1の目が出る確率は、1/6です。この場合の確率分布は、6つの目のそれぞれに1/6の確率が割り当てられます。
5.2. 確率分布(連続型)
連続型確率分布は、取る値が連続的で無限の可能性がある場合の確率分布です。代表的なものには、正規分布があります。連続型確率分布では、個々の点の確率は0ですが、特定の範囲に属する確率を計算することが可能です。
例: 身長や体重のように、連続的なデータを扱う場合に使用されます。
5.3. 正規分布
正規分布は、平均を中心に左右対称なベル型の分布を持つ確率分布です。多くの自然現象や測定データが正規分布に従うことが知られています。正規分布の標準偏差は、データのばらつきを表します。
例: テストの点数が正規分布に従う場合、平均点付近に多くの学生が集まり、両端には少数の学生が分布します。
5.4. 標準偏差
標準偏差は、データのばらつきの度合いを示す指標です。平均からの偏差の平方和の平方根をとることで計算されます。標準偏差が小さいほどデータが平均値に集中し、大きいほどデータの散らばりが大きいことを意味します。
例: 同じテストの点数で、あるクラスの標準偏差が小さい場合、ほとんどの学生が同じような点数を取っていることを示します。
5.5. 二項分布
二項分布は、ある試行を複数回行ったときに、特定の結果が何回出るかを表す確率分布です。成功回数を表す試行で使用されます。
例: コインを10回投げて、表が何回出るかを二項分布で計算できます。
5.6. ポアソン分布
ポアソン分布は、一定時間内や一定空間内で発生する事象の回数を表す確率分布です。事象が非常に稀である場合に適用されます。
例: 1時間あたりのウェブサイトへのアクセス数が平均して5回であるとき、その時間内に10回のアクセスがある確率を計算するのにポアソン分布が使用されます。
5.7. 指数分布
指数分布は、連続型確率分布の一つで、ある事象が発生するまでの待ち時間を表す分布です。主に、時間間隔や待ち時間の分析に使用されます。
例: バスが次に到着するまでの待ち時間がどれくらいかかるかを分析する際に使われます。
5.8. カイ二乗分布
カイ二乗分布は、標本分散の母分散に対する比率を調べるために使われます。特に、分散の検定やフィッティング度検定に使用されます。
例: サンプルデータがある理論モデルにどれだけ適合しているかを評価する場合に使用されます。
5.9. 確率密度
確率密度は、連続型確率分布において、特定の範囲内にデータが存在する確率を示します。確率密度関数(Probability Density Function)を用いて表現されます。
例: 正規分布における確率密度関数は、任意の範囲内にデータがどれだけ存在するかを計算するために使用されます。
6. マルコフ過程
6.1. マルコフ過程の概要
マルコフ過程とは、システムが時間の経過とともに変化する際に、その変化が現在の状態にのみ依存し、過去の状態には依存しない確率過程です。この特性を「マルコフ性」と呼びます。具体的には、現在の状態が未来の予測に対して最も重要であり、過去の詳細な履歴は考慮されない点が特徴です。
6.1.1. 状態と遷移
マルコフ過程における状態は、システムの特定の状況や条件を表すものであり、いくつかの変数の値によって定義されます。ある状態から別の状態への遷移は、現在の状態にのみ依存する確率(状態遷移確率)によって決定されます。
6.1.2. 状態遷移行列
これらの遷移確率は、状態遷移行列という形式で整理されます。行列の各要素は、ある状態から他の状態への遷移確率を示しており、この行列を用いることで、システムの全体的な振る舞いを分析することが可能になります。
6.1.3. 定常分布
定常分布とは、マルコフ過程がエルゴード的である場合、時間が無限に経過した後に到達する状態分布のことです。この分布は初期状態に依存せず一定の分布に収束します。定常分布は、長期的なシステムの安定した挙動を理解するために重要な概念です。
6.2. マルコフ連鎖
マルコフ連鎖は、マルコフ過程の一種で、状態が離散的である場合を指します。マルコフ連鎖では、次の状態は現在の状態にのみ依存し、過去の状態には依存しません。この特性により、未来の状態の予測が可能となり、さまざまな応用が可能です。
6.2.1. エルゴード性
マルコフ連鎖がエルゴード的であるためには、すべての状態が互いに到達可能であり、かつ周期的でない必要があります。この特性により、マルコフ連鎖は時間が経つにつれて一定の定常分布に収束することが保証されます。
6.2.2. チャップマン・コルモゴロフの等式
チャップマン・コルモゴロフの等式は、マルコフ連鎖における複数段階の遷移確率を計算する際に使用される重要なツールです。この等式により、任意の2つの時点間の遷移確率を、途中の状態を介して計算することが可能となります。
6.3. マルコフ過程の応用例
マルコフ過程は、さまざまな分野で応用されています。代表的な応用例として以下のものがあります。
- 経済学: 株価の変動をモデル化し、将来の価格を予測します。
- 物理学: 粒子の移動や拡散現象を説明します。
- 生物学: 集団遺伝学における遺伝子頻度の変化を解析します。
- コンピュータサイエンス: 通信ネットワークのトラフィック解析や、ランダムウォークアルゴリズムなどに利用されます。