コンテンツにスキップ

第2章 確率論の基礎:解答例

第4回:確率の基本概念

1. 標本空間と事象の理解

1) サイコロを2回振る試行について

解答例:

  1. 標本空間\(\Omega\)
\[\Omega = \{(1,1), (1,2), \ldots, (6,6)\}\]

全36通りの組み合わせがあります。

  1. 「1回目が偶数」という事象:
\[A = \{(2,1), (2,2), \ldots, (2,6), (4,1), \ldots, (4,6), (6,1), \ldots, (6,6)\}\]

18通りの組み合わせがあります。

  1. 「2回の和が7」という事象:
\[B = \{(1,6), (2,5), (3,4), (4,3), (5,2), (6,1)\}\]

6通りの組み合わせがあります。

解説: - 標本空間は、起こりうるすべての結果の集合です。サイコロを2回振る場合、各回で6通りの結果があり、組み合わせは\(6 \times 6 = 36\)通りになります。 - 事象は標本空間の部分集合です。「1回目が偶数」という事象は、1回目が2,4,6のいずれかで、2回目は何でもよいので、\(3 \times 6 = 18\)通りになります。 - 「和が7」という事象は、組み合わせを列挙することで確認できます。このように、事象を具体的に書き出すことで、確率を計算しやすくなります。

2) トランプから2枚引く試行について

解答例:

  1. 標本空間\(\Omega\)の要素数:
\[\binom{52}{2} = \frac{52 \times 51}{2} = 1326\]
  1. 「2枚ともハート」という事象の要素数:
\[\binom{13}{2} = \frac{13 \times 12}{2} = 78\]
  1. 「2枚とも同じスート」という事象の要素数:
\[4 \times \binom{13}{2} = 4 \times 78 = 312\]

解説: - トランプから2枚引く場合、順序を考慮しない組み合わせの数は\(\binom{52}{2}\)通りです。 - ハートは13枚あるので、2枚ともハートの組み合わせは\(\binom{13}{2}\)通りです。 - 同じスートの組み合わせは、ハート、ダイヤ、クラブ、スペードの4種類それぞれについて\(\binom{13}{2}\)通りあるので、合計で\(4 \times \binom{13}{2}\)通りになります。

2. 確率の公理的定義の理解

1) 以下の条件を満たす関数\(\mathbb{P}\)は確率の公理を満たすか確認せよ

解答例:

確率の公理を確認します:

  1. 非負性:すべての\(i\)について\(\mathbb{P}(\{i\}) \geq 0\)を満たしています。
  2. 規格化:\(\mathbb{P}(\Omega) = 0.1 + 0.2 + 0.3 + 0.4 = 1\)を満たしています。
  3. 加法性:互いに排反な事象\(A,B\)について\(\mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B)\)を満たしています。

したがって、この関数\(\mathbb{P}\)は確率の公理を満たします。

解説: - 確率の公理は、確率測度が満たすべき基本的な性質を定めています。 - 非負性は、確率が0以上であることを保証します。 - 規格化は、全事象の確率が1であることを保証します。 - 加法性は、排反な事象の和集合の確率が、個々の事象の確率の和になることを保証します。

2) 以下の条件を満たす関数\(\mathbb{P}\)は確率の公理を満たすか確認せよ

解答例:

確率の公理を確認します:

  1. 非負性:すべての\(i\)について\(\mathbb{P}(\{i\}) \geq 0\)を満たしています。
  2. 規格化:\(\mathbb{P}(\Omega) = 0.5 + 0.3 + 0.1 = 0.9 \neq 1\)となり、規格化の条件を満たしていません。

したがって、この関数\(\mathbb{P}\)は確率の公理を満たしません。

解説: - 確率の公理のうち、規格化の条件(全事象の確率が1)が満たされていない場合、その関数は確率測度とは呼べません。 - この例では、全事象の確率が0.9と1より小さいため、確率測度として不適切です。 - 確率測度として適切にするためには、各確率を\(\frac{1}{0.9}\)倍して規格化する必要があります。

3. 確率の基本的性質の確認

1) 事象\(A, B\)について、\(\mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B) - \mathbb{P}(A \cap B)\)が成り立つことを示せ

解答例:

\(A \cup B\)を以下のように分解できます: \(\(A \cup B = (A \setminus B) \cup (A \cap B) \cup (B \setminus A)\)\)

これらの集合は互いに排反なので、確率の加法性より: \(\(\mathbb{P}(A \cup B) = \mathbb{P}(A \setminus B) + \mathbb{P}(A \cap B) + \mathbb{P}(B \setminus A)\)\)

また、\(A\)\(B\)はそれぞれ以下のように分解できます: \(\(A = (A \setminus B) \cup (A \cap B)\)\) \(\(B = (B \setminus A) \cup (A \cap B)\)\)

したがって: \(\(\mathbb{P}(A) = \mathbb{P}(A \setminus B) + \mathbb{P}(A \cap B)\)\) \(\(\mathbb{P}(B) = \mathbb{P}(B \setminus A) + \mathbb{P}(A \cap B)\)\)

これらの式を整理すると: \(\(\mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B) - \mathbb{P}(A \cap B)\)\)

解説: - この公式は「包含と排除の原理」と呼ばれ、2つの事象の和集合の確率を計算する際に重要です。 - \(A \cap B\)の部分を2回数えているので、1回分を引く必要があります。 - 3つ以上の事象の場合にも同様の原理が成り立ちますが、より複雑な式になります。

2) 事象\(A\)の余事象\(A^c\)について、\(\mathbb{P}(A^c) = 1 - \mathbb{P}(A)\)が成り立つことを示せ

解答例:

\(A\)\(A^c\)は互いに排反で、\(A \cup A^c = \Omega\)です。

確率の加法性と規格化より:

\[\mathbb{P}(A) + \mathbb{P}(A^c) = \mathbb{P}(A \cup A^c) = \mathbb{P}(\Omega) = 1\]

したがって:

\[\mathbb{P}(A^c) = 1 - \mathbb{P}(A)\]

解説: - 余事象の確率は、全事象の確率(1)から元の事象の確率を引いたものになります。 - この性質は、直接計算が難しい事象の確率を、その余事象を通じて計算する際に便利です。 - 例えば、「少なくとも1回表が出る確率」は、「すべて裏が出る確率」の余事象として計算できます。

第5回:条件付き確率と独立性

4. モンティーホール問題の理解

1) 標準的なモンティーホール問題

解答例:

  1. ドア1のままにした場合の当選確率:
\[\mathbb{P}(\text{当選}) = \frac{1}{3}\]
  1. ドア2に変更した場合の当選確率:
\[\mathbb{P}(\text{当選}) = \frac{2}{3}\]
  1. 戦略の比較:
  2. ドアを変更しない戦略:当選確率1/3
  3. ドアを変更する戦略:当選確率2/3
  4. したがって、ドアを変更する戦略の方が有利です。

解説: - 初期状態では、各ドアに賞金がある確率は1/3ずつです。 - 司会者がドア3を開けた後、ドア1に賞金がある確率は1/3のままですが、ドア2に賞金がある確率は2/3になります。 - これは、司会者が必ず賞金のないドアを開けるという情報によって、確率が再分配されるためです。 - 直感的には、最初に選んだドアが当たりである確率は1/3で変わらず、残りの2/3の確率がもう一つの閉じているドアに集中すると考えられます。

2) 司会者の戦略が未知の場合

解答例:

  1. 賞金がドア1にある確率:
\[\mathbb{P}(E_1|O_2) = \frac{\mathbb{P}(O_2|E_1)\mathbb{P}(E_1)}{\mathbb{P}(O_2)} = \frac{\frac{1}{2} \times \frac{1}{3}}{\frac{1}{2}} = \frac{1}{3}\]
  1. 賞金がドア3にある確率:
\[\mathbb{P}(E_3|O_2) = \frac{\mathbb{P}(O_2|E_3)\mathbb{P}(E_3)}{\mathbb{P}(O_2)} = \frac{1 \times \frac{1}{3}}{\frac{1}{2}} = \frac{2}{3}\]
  1. 戦略の判断:
  2. ドアを変更しない場合の当選確率:1/3
  3. ドアを変更する場合の当選確率:2/3
  4. したがって、ドアを変更する戦略の方が有利です。

解説: - この問題では、司会者の戦略が明確に定義されています。 - ベイズの定理を使って、司会者がドア2を開けたという情報を考慮して確率を更新しています。 - 司会者がドア2を開けたという情報は、賞金がドア3にある場合に必ず発生するので、その確率が高くなります。 - このように、追加の情報によって確率が更新される様子を理解することが重要です。

3) 司会者のバイアスがある場合

解答例:

  1. 賞金がドア1にある確率(\(p\)の関数):
\[\mathbb{P}(E_1|O_2) = \frac{p}{p+1}\]
  1. \(p\)の場合の戦略:
  2. \(p = 0\)の場合:
\[\mathbb{P}(E_1|O_2) = 0\]
 ドアを変更すべきです。
  • \(p = 1/2\)の場合:
\[\mathbb{P}(E_1|O_2) = \frac{1/2}{3/2} = \frac{1}{3}\]
 ドアを変更すべきです。
  • \(p = 1\)の場合:
\[\mathbb{P}(E_1|O_2) = \frac{1}{2}\]
 どちらの戦略も同じ期待値です。
  1. 期待値が等しくなる\(p\)の値:
\[\frac{p}{p+1} = \frac{1}{2}\]

を解くと、\(p = 1\)となります。

解説: - この問題では、司会者の戦略にパラメータ\(p\)が導入されています。 - \(p\)の値によって、ドアを変更する戦略の有利さが変化します。 - \(p = 1\)のとき、司会者が常にドア2を開ける場合、ドア1とドア3の当選確率が等しくなります。 - このように、確率モデルにパラメータを導入することで、より現実的な状況を表現できます。

4) データから司会者の戦略を推定する

解答例:

  1. 司会者の戦略パラメータ\(p\)の推定: \(\(\hat{p} = \frac{20}{30} = \frac{2}{3}\)\)

  2. この推定値に基づく戦略判断: \(\(\mathbb{P}(E_1|O_2) = \frac{\frac{2}{3}}{\frac{2}{3}+1} = \frac{2}{5}\)\) \(\(\mathbb{P}(E_3|O_2) = \frac{1}{\frac{2}{3}+1} = \frac{3}{5}\)\)

したがって、ドアを変更する戦略の方が有利です。

解説: - この問題では、実際のデータから司会者の戦略を推定しています。 - 最尤推定の考え方を用いて、観測されたデータから\(p\)を推定しています。 - 推定された\(p\)の値を使って、ベイズの定理を適用することで、最適な戦略を判断できます。 - このように、データから確率モデルのパラメータを推定し、それを意思決定に活用する方法は、統計学の重要な応用です。

5) 自然界のモデル化と根源事象の再構成

解答例:

  1. 根源事象が等確率でない理由:
  2. 司会者の戦略によって、各根源事象の確率が異なるため
  3. 例えば、\(E_1 \cap O_2\)の確率は\(p/3\)\(E_3 \cap O_2\)の確率は\(1/3\)となる

  4. パラメータ\(p\)による確率分布の再構成:

  5. \(p\)の値によって、\(E_1 \cap O_2\)の確率が変化する
  6. これにより、条件付き確率\(\mathbb{P}(E_1|O_2)\)\(p\)に依存する

  7. パラメータ導入の重要性:

  8. 現実世界の問題では、完全な等確率性は稀
  9. パラメータを導入することで、より現実的な確率モデルを構築できる
  10. データからパラメータを推定することで、モデルの精度を向上させられる

解説: - この問題では、確率モデルの構築におけるパラメータの重要性を考察しています。 - 現実世界の問題では、単純な等確率モデルでは不十分な場合が多くあります。 - パラメータを導入することで、より柔軟な確率モデルを構築できます。 - また、データからパラメータを推定することで、モデルの現実への適合度を高めることができます。

5. 独立性の理解

1) 2つのサイコロを振る試行について

解答例:

  1. \(X\)\(Y\)の独立性: \(\(\mathbb{P}(X = i, Y = j) = \frac{1}{36} = \frac{1}{6} \times \frac{1}{6} = \mathbb{P}(X = i)\mathbb{P}(Y = j)\)\) したがって、\(X\)\(Y\)は独立です。

  2. \(X\)\(X+Y\)の非独立性: 例えば、\(X = 6\)のとき、\(X+Y\)は7以上になります。 一方、\(X = 1\)のとき、\(X+Y\)は7未満になる可能性があります。 したがって、\(X\)の値によって\(X+Y\)の分布が変化するので、独立ではありません。

解説: - 独立性は、2つの確率変数の同時確率が、それぞれの周辺確率の積で表せることを意味します。 - サイコロを2回振る場合、1回目の結果は2回目の結果に影響を与えないので、独立です。 - 一方、\(X\)\(X+Y\)は、\(X\)の値によって\(X+Y\)の取りうる値が制限されるので、独立ではありません。 - このように、確率変数の間の関係性を理解することは、確率モデルを構築する上で重要です。

2) 以下の事象の組が独立かどうか判定せよ

解答例:

  1. サイコロを1回振って「偶数が出る」と「3以上の目が出る」:
  2. 「偶数が出る」事象\(A\)\(\{2,4,6\}\)
  3. 「3以上の目が出る」事象\(B\)\(\{3,4,5,6\}\)
  4. \(\mathbb{P}(A) = \frac{3}{6} = \frac{1}{2}\)
  5. \(\mathbb{P}(B) = \frac{4}{6} = \frac{2}{3}\)
  6. \(\mathbb{P}(A \cap B) = \mathbb{P}(\{4,6\}) = \frac{2}{6} = \frac{1}{3}\)
  7. \(\mathbb{P}(A)\mathbb{P}(B) = \frac{1}{2} \times \frac{2}{3} = \frac{1}{3}\)
  8. したがって、\(A\)\(B\)は独立です。

  9. トランプから1枚引いて「ハートが出る」と「絵札が出る」:

  10. 「ハートが出る」事象\(A\):13枚
  11. 「絵札が出る」事象\(B\):12枚(J,Q,Kが4スート)
  12. \(\mathbb{P}(A) = \frac{13}{52} = \frac{1}{4}\)
  13. \(\mathbb{P}(B) = \frac{12}{52} = \frac{3}{13}\)
  14. \(\mathbb{P}(A \cap B) = \mathbb{P}(\text{ハートの絵札}) = \frac{3}{52}\)
  15. \(\mathbb{P}(A)\mathbb{P}(B) = \frac{1}{4} \times \frac{3}{13} = \frac{3}{52}\)
  16. したがって、\(A\)\(B\)は独立です。

解説: - 事象の独立性は、\(\mathbb{P}(A \cap B) = \mathbb{P}(A)\mathbb{P}(B)\)が成り立つかどうかで判定できます。 - サイコロの場合、偶数の目と3以上の目は一見関係がありそうですが、実際には独立です。 - トランプの場合、ハートと絵札も独立です。これは、各スートに同じ数の絵札があるためです。 - このように、直感に反して独立である場合もあるので、数式的な確認が重要です。

6. ベイズの定理の応用

1) ある病気の罹患率が0.1%である場合

解答例:

  1. 検査で陽性となった人が実際に罹患している確率: \(\(\mathbb{P}(\text{罹患}|\text{陽性}) = \frac{\mathbb{P}(\text{陽性}|\text{罹患})\mathbb{P}(\text{罹患})}{\mathbb{P}(\text{陽性})}\)\) \(\(= \frac{0.99 \times 0.001}{0.99 \times 0.001 + 0.02 \times 0.999} \approx 0.047\)\)

  2. 検査で陰性となった人が実際に罹患していない確率: \(\(\mathbb{P}(\text{非罹患}|\text{陰性}) = \frac{\mathbb{P}(\text{陰性}|\text{非罹患})\mathbb{P}(\text{非罹患})}{\mathbb{P}(\text{陰性})}\)\) \(\(= \frac{0.98 \times 0.999}{0.01 \times 0.001 + 0.98 \times 0.999} \approx 0.99999\)\)

解説: - この問題は、ベイズの定理の典型的な応用例です。 - 罹患率が非常に低い(0.1%)ため、検査が陽性でも実際に罹患している確率は約4.7%と低くなります。 - これは、偽陽性(非罹患者が陽性となる)の影響が大きいためです。 - 一方、陰性の場合は、特異度が高い(98%)ため、陰性ならほぼ確実に罹患していないと言えます。 - このように、事前確率(罹患率)が検査結果の解釈に大きな影響を与えることを理解することが重要です。

2) 工場で生産される製品について

解答例:

不良品が機械Aで生産された確率: \(\(\mathbb{P}(\text{機械A}|\text{不良品}) = \frac{\mathbb{P}(\text{不良品}|\text{機械A})\mathbb{P}(\text{機械A})}{\mathbb{P}(\text{不良品})}\)\) \(\(= \frac{0.1 \times 0.8}{0.1 \times 0.8 + 0.05 \times 0.2} = \frac{0.08}{0.09} \approx 0.889\)\)

解説: - この問題もベイズの定理の応用例です。 - 機械Aの生産割合が高い(80%)ため、不良品が機械Aで生産された確率も高くなります。 - ただし、機械Bの不良率が低い(5%)ため、その影響も考慮する必要があります。 - このように、複数の要因が関わる確率の問題では、ベイズの定理を使って確率を更新することが有効です。

第6回:確率変数と確率分布

7. 確率変数の理解

1) サイコロを2回振る試行について

解答例:

  1. \(X\)の取りうる値: \(\(X \in \{2,3,4,5,6,7,8,9,10,11,12\}\)\)

  2. \(\mathbb{P}(X = 7)\)\(\(\mathbb{P}(X = 7) = \mathbb{P}(\{(1,6),(2,5),(3,4),(4,3),(5,2),(6,1)\}) = \frac{6}{36} = \frac{1}{6}\)\)

解説: - 確率変数は、標本空間から実数への関数です。 - この場合、\(X\)は2つのサイコロの目の和を表す確率変数です。 - \(X\)の取りうる値は、最小が2(1+1)、最大が12(6+6)です。 - \(\mathbb{P}(X = 7)\)は、和が7になる組み合わせの数を全事象の数で割ったものです。 - このように、確率変数を通じて、複雑な事象を数値的に表現できます。

2) コインを3回投げる試行について

解答例:

  1. \(Y\)の確率分布:
\(Y\) \(\mathbb{P}(Y = k)\)
0 \(\frac{1}{8}\)
1 \(\frac{3}{8}\)
2 \(\frac{3}{8}\)
3 \(\frac{1}{8}\)
  1. \(\mathbb{P}(Y \geq 2)\)\(\(\mathbb{P}(Y \geq 2) = \mathbb{P}(Y = 2) + \mathbb{P}(Y = 3) = \frac{3}{8} + \frac{1}{8} = \frac{1}{2}\)\)

解説: - この問題では、二項分布の例を示しています。 - コインを3回投げる場合、表が出る回数は0から3までの値を取ります。 - 各回の試行は独立で、表が出る確率は1/2です。 - したがって、\(Y\)はパラメータ\(n=3\)\(p=1/2\)の二項分布に従います。 - 確率分布表を作成することで、確率変数の振る舞いを視覚的に理解できます。

8. 離散型と連続型の確率変数

1) 以下の関数が確率密度関数となるための定数\(c\)を求めよ

解答例:

確率密度関数の条件: \(\(\int_{-1}^1 c(1-x^2)dx = 1\)\)

積分を計算: \(\(c\int_{-1}^1 (1-x^2)dx = c\left[x - \frac{x^3}{3}\right]_{-1}^1 = c\left(2 - \frac{2}{3}\right) = \frac{4}{3}c\)\)

したがって: \(\(\frac{4}{3}c = 1 \Rightarrow c = \frac{3}{4}\)\)

解説: - 確率密度関数は、全区間での積分が1になる必要があります。 - この問題の関数は、\(x=0\)で最大値を取り、\(x=\pm1\)で0になる放物線です。 - 定数\(c\)は、この関数の下の面積を1にするための規格化定数です。 - このような確率密度関数は、実際のデータの分布をモデル化する際によく用いられます。

2) 確率変数\(X\)が以下の確率分布に従うとき

解答例:

  1. 定数\(c\)の決定: \(\(\sum_{k=1}^\infty \frac{c}{k^2} = 1\)\)

調和級数の和は\(\frac{\pi^2}{6}\)なので: \(\(c = \frac{6}{\pi^2}\)\)

  1. \(\mathbb{P}(X \geq 3)\)の計算: \(\(\mathbb{P}(X \geq 3) = 1 - \mathbb{P}(X = 1) - \mathbb{P}(X = 2) = 1 - \frac{6}{\pi^2} - \frac{6}{4\pi^2} = 1 - \frac{15}{2\pi^2}\)\)

解説: - この問題では、離散的な確率分布を扱っています。 - 確率の総和が1になるという条件から、定数\(c\)を決定します。 - \(\mathbb{P}(X \geq 3)\)は、余事象の確率を使って計算します。 - このような確率分布は、自然現象や社会現象をモデル化する際に用いられることがあります。

9. 確率分布関数と確率密度関数

1) 確率変数\(X\)が区間\([0,1]\)上の一様分布に従うとき

解答例:

  1. 確率密度関数\(f(x)\)
\[f(x) = \begin{cases} 1 & (0 \leq x \leq 1) \\ 0 & (\text{otherwise}) \end{cases}\]
  1. 分布関数\(F(x)\)
\[F(x) = \begin{cases} 0 & (x < 0) \\ x & (0 \leq x \leq 1) \\ 1 & (x > 1) \end{cases}\]
  1. \(\mathbb{P}(0.3 \leq X \leq 0.7)\)
\[\mathbb{P}(0.3 \leq X \leq 0.7) = F(0.7) - F(0.3) = 0.7 - 0.3 = 0.4\]

解説: - 一様分布は、すべての値が等しい確率で現れる分布です。 - 確率密度関数は定数関数になり、分布関数は線形関数になります。 - 分布関数\(F(x)\)は、確率変数が\(x\)以下となる確率を表します。 - 区間の確率は、分布関数の差として計算できます。

2) 確率変数\(X\)が指数分布\(\text{Exp}(\lambda)\)に従うとき

解答例:

  1. 確率密度関数\(f(x)\)
\[f(x) = \begin{cases} \lambda e^{-\lambda x} & (x \geq 0) \\ 0 & (x < 0) \end{cases}\]
  1. 分布関数\(F(x)\)
\[F(x) = \begin{cases} 1 - e^{-\lambda x} & (x \geq 0) \\ 0 & (x < 0) \end{cases}\]
  1. \(\mathbb{P}(X > t)\)
\[\mathbb{P}(X > t) = 1 - F(t) = e^{-\lambda t}\]

解説: - 指数分布は、待ち時間や寿命などをモデル化する際によく用いられます。 - 確率密度関数は指数関数的に減少します。 - 分布関数は1から指数関数的に増加します。 - \(\mathbb{P}(X > t)\)は、\(t\)より大きい値を取る確率で、指数関数で表されます。 - この性質は、無記憶性と呼ばれ、指数分布の重要な特徴です。