PAI · AAMAI · 2026
Aktuaria
Indonesia
CF2 · Materi 1.4

Probabilitas Bersyarat

2026-02-21 Medium Bobot: 15–25% Hogg-Tanis-Zimmerman (2015) Bab 1.4; Miller et al. (2014) Bab 2.7–2.9
CF2ProbabilitasStatistikaProbabilitasBersyaratMultiplicationRuleIndependensiAwalReducedSampleSpaceBayesPreview

📊 1.4 — Probabilitas Bersyarat

Ringkasan Cepat

Topik: Probabilitas Bersyarat | Bobot: ~15–25% | Difficulty: Medium Ref: Hogg-Tanis-Zimm (2015) Bab 1.4; Miller et al. (2014) Bab 2.7–2.9 | Prereq: 1.1 Eksperimen Acak dan Ruang Sampel, 1.2 Aksioma dan Perhitungan Probabilitas, 1.3 Metode Enumerasi

Section 0 — Pemetaan Topik

Topik CF2Sub-topik IDSkill DiujiBobotDifficultyPrerequisiteConnected TopicsReferensi
Topik 1: Dasar-Dasar Probabilitas1.4Menghitung P(AB)P(A \mid B) dari definisi; menerapkan multiplication rule untuk P(AB)P(A \cap B); menggunakan reduced sample space untuk menyederhanakan perhitungan; membedakan P(AB)P(A \mid B) dengan P(BA)P(B \mid A); menghitung probabilitas bersyarat dari tabel kontingensi; mengenali kapan informasi bersyarat mengubah probabilitas15–25%Medium1.1 Eksperimen Acak dan Ruang Sampel, 1.2 Aksioma dan Perhitungan Probabilitas, 1.3 Metode Enumerasi1.5 Kejadian Independen, 1.6 Teorema Bayes dan Hukum Probabilitas Total, 3.3 Distribusi Bersyarat (Conditional Distribution), 3.4 Nilai Harapan dan Variansi BersyaratHogg-Tanis-Zimm (2015) Bab 1.4; Miller et al. (2014) Bab 2.7–2.9

Section 1 — Intuisi

Bayangkan seorang underwriter asuransi jiwa yang ingin menilai risiko seorang pelamar berusia 45 tahun dengan riwayat merokok. Probabilitas klaim dalam setahun untuk populasi umum mungkin hanya 0,3%. Namun begitu underwriter mengetahui bahwa pelamar ini adalah perokok berat berusia di atas 40 tahun, probabilitas tersebut berubah drastis — mungkin menjadi 2% atau lebih. Inilah esensi probabilitas bersyarat: probabilitas suatu kejadian AA ketika kita sudah memiliki informasi tambahan bahwa kejadian BB telah terjadi. Informasi BB secara efektif “mempersempit” ruang sampel kita dari Ω\Omega menjadi hanya subset BB, dan kita menghitung ulang probabilitas AA dalam konteks yang lebih sempit ini.

Secara geometris, probabilitas bersyarat P(AB)P(A \mid B) adalah pertanyaan: “dari seluruh kemungkinan yang ada di dalam BB, berapa proporsinya yang juga masuk ke AA?” Jawabannya adalah luas area tumpang tindih ABA \cap B dibagi luas area BB — bukan dibagi luas seluruh Ω\Omega. Itulah mengapa formulanya adalah P(AB)/P(B)P(A \cap B) / P(B): pembilang mengukur “seberapa banyak AA dan BB terjadi bersama”, dan penyebut menormalisasi ulang skala probabilitas agar total dalam ruang BB tetap menjadi 1.

Konsep ini adalah tulang punggung dari hampir seluruh pemodelan risiko aktuaria yang lebih canggih. Multiplication rule — yang menyatakan P(AB)=P(AB)P(B)P(A \cap B) = P(A \mid B) \cdot P(B) — memungkinkan kita mendekomposisi probabilitas kejadian majemuk menjadi urutan kejadian bersyarat, seperti rantai keputusan dalam pohon probabilitas. Dari fondasi ini lahir 1.5 Kejadian Independen, 1.6 Teorema Bayes dan Hukum Probabilitas Total, dan pada akhirnya seluruh teori distribusi bersyarat di Topik 3.

Section 2 — Definisi Formal

Definisi Matematis

Misalkan AA dan BB adalah dua kejadian dengan P(B)>0P(B) > 0. Probabilitas bersyarat AA diberikan BB didefinisikan sebagai:

P(AB)=P(AB)P(B),P(B)>0P(A \mid B) = \frac{P(A \cap B)}{P(B)}, \quad P(B) > 0

Multiplication Rule (Aturan Perkalian):

P(AB)=P(AB)P(B)=P(BA)P(A)P(A \cap B) = P(A \mid B) \cdot P(B) = P(B \mid A) \cdot P(A)

Multiplication Rule untuk kk Kejadian (Chain Rule):

P(A1A2Ak)=P(A1)P(A2A1)P(A3A1A2)P(AkA1Ak1)P(A_1 \cap A_2 \cap \cdots \cap A_k) = P(A_1) \cdot P(A_2 \mid A_1) \cdot P(A_3 \mid A_1 \cap A_2) \cdots P(A_k \mid A_1 \cap \cdots \cap A_{k-1})

Variabel & Parameter

SimbolMaknaCatatan
P(AB)P(A \mid B)Probabilitas AA diberikan BB telah terjadiHanya terdefinisi jika P(B)>0P(B) > 0
P(BA)P(B \mid A)Probabilitas BB diberikan AA telah terjadiUmumnya P(AB)P(BA)P(A \mid B) \neq P(B \mid A)
P(AB)P(A \cap B)Probabilitas AA dan BB terjadi bersamaJoint probability; simetris: P(AB)=P(BA)P(A \cap B) = P(B \cap A)
P(B)P(B)Probabilitas BB terjadi (tanpa syarat)Denominator; harus >0> 0
ΩB\Omega_BReduced sample space: BB dianggap sebagai Ω\Omega baruP(ΩB)=P(BB)=1P(\Omega_B) = P(B \mid B) = 1

Rumus Utama

P(AB)=P(AB)P(B),P(B)>0P(A \mid B) = \frac{P(A \cap B)}{P(B)}, \quad P(B) > 0

Label: Definisi Probabilitas Bersyarat — titik awal semua perhitungan; pembilang adalah joint probability, penyebut adalah marginal probability kejadian yang dikondisikan.

P(AB)=P(AB)P(B)P(A \cap B) = P(A \mid B) \cdot P(B)

Label: Multiplication Rule — menurunkan joint probability dari conditional dan marginal; sangat sering digunakan untuk menghitung P(AB)P(A \cap B) ketika P(AB)P(A \mid B) diketahui lebih mudah daripada P(AB)P(A \cap B) secara langsung.

P(AB)=P(BA)P(A)P(A \cap B) = P(B \mid A) \cdot P(A)

Label: Multiplication Rule (sisi lain) — kedua versi ekivalen karena P(AB)=P(BA)P(A \cap B) = P(B \cap A); pilih versi yang lebih mudah dihitung dari informasi yang tersedia.

P(A1A2Ak)=P(A1)i=2kP ⁣(Ai|j=1i1Aj)P(A_1 \cap A_2 \cap \cdots \cap A_k) = P(A_1) \cdot \prod_{i=2}^{k} P\!\left(A_i \,\middle|\, \bigcap_{j=1}^{i-1} A_j\right)

Label: Chain Rule (Multiplication Rule Umum) — dekomposisi joint probability dari kk kejadian menjadi produk probabilitas bersyarat bertingkat; berguna untuk pohon probabilitas (probability tree).

aP(A=aB)=1\sum_{a} P(A = a \mid B) = 1

Label: Normalisasi Probabilitas Bersyarat — probabilitas bersyarat memenuhi semua aksioma Kolmogorov dengan BB sebagai ruang sampel baru; total atas semua nilai AA harus sama dengan 1.

Asumsi Eksplisit

  • P(B)>0P(B) > 0 wajib: Probabilitas bersyarat P(AB)P(A \mid B) tidak terdefinisi jika P(B)=0P(B) = 0. Mengkondisikan pada kejadian dengan probabilitas nol memerlukan teori yang lebih canggih. [BEYOND CF2]
  • Probabilitas bersyarat memenuhi aksioma Kolmogorov: Dengan BB sebagai ruang sampel baru, P(B)P(\cdot \mid B) adalah fungsi probabilitas yang valid — non-negatif, P(BB)=1P(B \mid B) = 1, dan aditif untuk kejadian saling eksklusif.
  • Multiplication rule tidak mensyaratkan independensi: P(AB)=P(AB)P(B)P(A \cap B) = P(A \mid B) \cdot P(B) berlaku untuk semua kejadian A,BA, B dengan P(B)>0P(B) > 0, terlepas apakah AA dan BB independen atau tidak.

Section 3 — Jembatan Logika

Dari Definisi ke Rumus

Intuisi paling kuat untuk memahami P(AB)=P(AB)/P(B)P(A \mid B) = P(A \cap B)/P(B) adalah konsep reduced sample space. Ketika kita mengetahui bahwa BB telah terjadi, kita tidak lagi mempertimbangkan titik-titik sampel di luar BB. Ruang sampel kita “menyusut” dari Ω\Omega menjadi BB. Dalam ruang yang menyusut ini, AA hanya bisa terjadi melalui bagian yang beririsan dengan BB, yaitu ABA \cap B. Probabilitas relatif AA dalam ruang BB adalah P(AB)P(A \cap B) dibagi P(B)P(B) — normalisasi diperlukan agar total probabilitas dalam ruang BB tetap 1. Multiplication rule hanyalah definisi ini yang “dibalik”: dari P(AB)=P(AB)/P(B)P(A \mid B) = P(A \cap B)/P(B), kalikan kedua sisi dengan P(B)P(B) untuk mendapatkan P(AB)=P(AB)P(B)P(A \cap B) = P(A \mid B) \cdot P(B).

Support dan Domain
  • P(AB)P(A \mid B) adalah fungsi dari AA (diberikan BB tetap): untuk BB tertentu, P(B)P(\cdot \mid B) mendefinisikan distribusi probabilitas baru pada Ω\Omega (atau pada BB saja).
  • P(AB)[0,1]P(A \mid B) \in [0, 1] selalu — ini adalah konsekuensi dari P(AB)P(B)P(A \cap B) \leq P(B) (karena ABBA \cap B \subseteq B) dan P(AB)0P(A \cap B) \geq 0 (Aksioma 1).
  • Asimetri: P(AB)P(A \mid B) dan P(BA)P(B \mid A) mengukur hal yang berbeda total. P(AB)P(A \mid B) adalah proporsi BB yang juga AA; P(BA)P(B \mid A) adalah proporsi AA yang juga BB.

Derivasi Multiplication Rule dari Definisi:

Mulai dari definisi probabilitas bersyarat:

P(AB)=P(AB)P(B)P(A \mid B) = \frac{P(A \cap B)}{P(B)}

Kalikan kedua sisi dengan P(B)>0P(B) > 0:

P(AB)P(B)=P(AB)P(A \mid B) \cdot P(B) = P(A \cap B) \quad \blacksquare

Karena P(AB)=P(BA)P(A \cap B) = P(B \cap A), kita juga bisa menulis:

P(AB)=P(BA)P(A)P(A \cap B) = P(B \mid A) \cdot P(A) \quad \blacksquare

Derivasi Chain Rule untuk Tiga Kejadian:

P(ABC)=P((AB)C)=P(CAB)P(AB)P(A \cap B \cap C) = P\bigl((A \cap B) \cap C\bigr) = P\bigl(C \mid A \cap B\bigr) \cdot P(A \cap B)

Terapkan multiplication rule lagi pada P(AB)P(A \cap B):

=P(CAB)P(BA)P(A)= P\bigl(C \mid A \cap B\bigr) \cdot P(B \mid A) \cdot P(A) \quad \blacksquare

Reduced Sample Space — Contoh Konkret:

Misalkan Ω={1,2,3,4,5,6}\Omega = \{1, 2, 3, 4, 5, 6\} (dadu adil) dan B={2,4,6}B = \{2, 4, 6\} (hasil genap). Jika A={1,2,3}A = \{1, 2, 3\} (hasil 3\leq 3), maka:

P(AB)=P(AB)P(B)=P({2})P({2,4,6})=1/63/6=13P(A \mid B) = \frac{P(A \cap B)}{P(B)} = \frac{P(\{2\})}{P(\{2,4,6\})} = \frac{1/6}{3/6} = \frac{1}{3}

Interpretasi reduced sample space: diberikan hasil genap, ruang sampel menjadi {2,4,6}\{2, 4, 6\}. Dari tiga nilai ini, hanya {2}\{2\} yang 3\leq 3. Probabilitas: 1/31/3. ✓

Menghitung dari Tabel Kontingensi:

Tabel kontingensi 2×22 \times 2 secara langsung memberikan semua informasi untuk probabilitas bersyarat. Jika baris mewakili kejadian AA dan kolomnya BB:

P(AB)=n(AB)n(B)=frekuensi sel (A,B)total kolom BP(A \mid B) = \frac{n(A \cap B)}{n(B)} = \frac{\text{frekuensi sel }(A,B)}{\text{total kolom }B}
Dilarang
  1. Dilarang membalik P(AB)P(A \mid B) menjadi P(BA)P(B \mid A) tanpa justifikasi. P(AB)P(BA)P(A \mid B) \neq P(B \mid A) secara umum — kesalahan ini disebut confusion of the inverse dan adalah jebakan paling berbahaya di soal probabilitas bersyarat CF2. Konversi antara keduanya memerlukan Teorema Bayes (1.6 Teorema Bayes dan Hukum Probabilitas Total).
  2. Dilarang mendefinisikan P(AB)P(A \mid B) ketika P(B)=0P(B) = 0. Jika suatu soal tampak meminta P(AB)P(A \mid B) dengan P(B)=0P(B) = 0, ada kesalahan dalam setup soal atau interpretasi — wajib tinjau ulang definisi kejadian BB.
  3. Dilarang menggunakan P(AB)=P(A)P(A \mid B) = P(A) tanpa memverifikasi independensi terlebih dahulu. Persamaan ini hanya berlaku jika AA dan BB independen — ini adalah definisi independensi yang dibahas di 1.5 Kejadian Independen, bukan asumsi default.

Section 4 — Contoh Soal

Soal A — Fundamental

Sebuah perusahaan asuransi memiliki 200 pemegang polis. Data tercatat sebagai berikut: 80 polis pernah mengajukan klaim (kejadian KK), 70 polis memiliki riwayat kecelakaan (kejadian CC), dan 40 polis memiliki keduanya (pernah klaim DAN riwayat kecelakaan). Satu polis dipilih secara acak.

Tentukan: (a) P(KC)P(K \mid C), (b) P(CK)P(C \mid K), (c) P(KCc)P(K \mid C^c), (d) apakah P(KC)=P(KCc)P(K \mid C) = P(K \mid C^c)? Apa artinya?

Solusi Soal A

1. Identifikasi Variabel

  • n(Ω)=200n(\Omega) = 200, n(K)=80n(K) = 80, n(C)=70n(C) = 70, n(KC)=40n(K \cap C) = 40
  • Model equally likely: P(A)=n(A)/200P(A) = n(A)/200

2. Identifikasi Distribusi / Model

  • Data dari tabel kontingensi implisit; gunakan definisi langsung P(AB)=P(AB)/P(B)P(A \mid B) = P(A \cap B)/P(B)
  • Hitung semua probabilitas yang diperlukan terlebih dahulu

3. Setup Persamaan

P(K)=80200=0.40,P(C)=70200=0.35,P(KC)=40200=0.20P(K) = \frac{80}{200} = 0.40, \quad P(C) = \frac{70}{200} = 0.35, \quad P(K \cap C) = \frac{40}{200} = 0.20

4. Eksekusi Aljabar

(a) Probabilitas pernah klaim, diberikan punya riwayat kecelakaan:

P(KC)=P(KC)P(C)=0.200.35=470.571P(K \mid C) = \frac{P(K \cap C)}{P(C)} = \frac{0.20}{0.35} = \frac{4}{7} \approx 0.571

(b) Probabilitas punya riwayat kecelakaan, diberikan pernah klaim:

P(CK)=P(KC)P(K)=0.200.40=12=0.500P(C \mid K) = \frac{P(K \cap C)}{P(K)} = \frac{0.20}{0.40} = \frac{1}{2} = 0.500

(c) Pertama, hitung P(KCc)P(K \cap C^c) dan P(Cc)P(C^c):

P(Cc)=1P(C)=10.35=0.65P(C^c) = 1 - P(C) = 1 - 0.35 = 0.65 P(KCc)=P(K)P(KC)=0.400.20=0.20P(K \cap C^c) = P(K) - P(K \cap C) = 0.40 - 0.20 = 0.20 P(KCc)=P(KCc)P(Cc)=0.200.65=4130.308P(K \mid C^c) = \frac{P(K \cap C^c)}{P(C^c)} = \frac{0.20}{0.65} = \frac{4}{13} \approx 0.308

(d) P(KC)=4/70.571P(KCc)=4/130.308P(K)=0.40P(K \mid C) = 4/7 \approx 0.571 \neq P(K \mid C^c) = 4/13 \approx 0.308 \neq P(K) = 0.40

Karena P(KC)P(K)P(K \mid C) \neq P(K), mengetahui riwayat kecelakaan mengubah probabilitas klaim. Artinya KK dan CC tidak independen — riwayat kecelakaan memberikan informasi relevan tentang kemungkinan klaim. (Ini adalah preview konsep di 1.5 Kejadian Independen.)

5. Verification

Hitung empat sel tabel kontingensi dan verifikasi:

CCCcC^cTotal
KK404040408080
KcK^c30309090120120
Total7070130130200200

Cek: P(KC)=40/70=4/7P(K \mid C) = 40/70 = 4/7 ✓ (langsung dari tabel, tanpa membagi dengan 200 dulu)

Cek: P(CK)=40/80=1/2P(C \mid K) = 40/80 = 1/2

Cek: P(KCc)=40/130=4/13P(K \mid C^c) = 40/130 = 4/13

Exam Tips — Soal A
  • Target waktu: 8–10 menit.
  • Common trap: Menukar pembilang dan penyebut — menghitung P(C)/P(KC)P(C)/P(K \cap C) alih-alih P(KC)/P(C)P(K \cap C)/P(C). Selalu ingat: “diberikan BB” berarti P(B)P(B) ada di penyebut.
  • Shortcut dari tabel: Jika data dalam bentuk frekuensi, P(AB)=n(AB)/n(B)P(A \mid B) = n(A \cap B)/n(B) — tidak perlu konversi ke probabilitas dulu. Hitung langsung dari frekuensi di sel dan total kolom/baris.
  • Shortcut verifikasi (d): Cara tercepat mengecek apakah dua kejadian independen dari tabel adalah: apakah n(AB)=n(A)n(B)/Nn(A \cap B) = n(A) \cdot n(B)/N? Jika ya, independen. Di sini: 40=?80×70/200=2840 \overset{?}{=} 80 \times 70/200 = 28 — tidak sama, jadi tidak independen ✓.

Soal B — Exam-Typical

Sebuah portofolio asuransi kendaraan dibagi berdasarkan profil risiko nasabah. Diketahui:

  • 60% nasabah tergolong risiko rendah (RR), sisanya risiko tinggi (RcR^c).
  • Probabilitas nasabah risiko rendah mengajukan klaim dalam setahun: P(KR)=0.05P(K \mid R) = 0.05.
  • Probabilitas nasabah risiko tinggi mengajukan klaim dalam setahun: P(KRc)=0.20P(K \mid R^c) = 0.20.

Seorang nasabah dipilih secara acak.

(a) Tentukan P(KR)P(K \cap R) dan P(KRc)P(K \cap R^c).

(b) Tentukan P(K)P(K) — probabilitas sembarang nasabah mengajukan klaim.

(c) Diberikan bahwa nasabah yang dipilih ternyata tidak mengajukan klaim, tentukan P(RKc)P(R \mid K^c).

(d) Satu nasabah risiko rendah dan satu nasabah risiko tinggi dipilih secara independen. Tentukan probabilitas tepat satu dari keduanya mengajukan klaim.

Solusi Soal B

1. Identifikasi Variabel

  • P(R)=0.60P(R) = 0.60, P(Rc)=0.40P(R^c) = 0.40
  • P(KR)=0.05P(K \mid R) = 0.05, P(KRc)=0.20P(K \mid R^c) = 0.20

2. Identifikasi Distribusi / Model

  • Gunakan multiplication rule untuk mencari joint probabilities
  • (b) adalah preview Hukum Total Probabilitas (1.6 Teorema Bayes dan Hukum Probabilitas Total)
  • (c) adalah preview Teorema Bayes
  • (d) menggunakan independensi antar nasabah berbeda

3. Setup Persamaan

Multiplication rule: P(KB)=P(KB)P(B)P(K \cap B) = P(K \mid B) \cdot P(B)

4. Eksekusi Aljabar

(a):

P(KR)=P(KR)P(R)=0.05×0.60=0.030P(K \cap R) = P(K \mid R) \cdot P(R) = 0.05 \times 0.60 = 0.030 P(KRc)=P(KRc)P(Rc)=0.20×0.40=0.080P(K \cap R^c) = P(K \mid R^c) \cdot P(R^c) = 0.20 \times 0.40 = 0.080

(b) Karena RR dan RcR^c adalah partisi dari Ω\Omega:

P(K)=P(KR)+P(KRc)=0.030+0.080=0.110P(K) = P(K \cap R) + P(K \cap R^c) = 0.030 + 0.080 = 0.110

(c) P(Kc)=1P(K)=10.110=0.890P(K^c) = 1 - P(K) = 1 - 0.110 = 0.890

P(RKc)=P(R)P(RK)=0.600.030=0.570P(R \cap K^c) = P(R) - P(R \cap K) = 0.60 - 0.030 = 0.570

P(RKc)=P(RKc)P(Kc)=0.5700.890=57890.640P(R \mid K^c) = \frac{P(R \cap K^c)}{P(K^c)} = \frac{0.570}{0.890} = \frac{57}{89} \approx 0.640

Interpretasi: diberikan nasabah tidak mengajukan klaim, probabilitas ia tergolong risiko rendah meningkat dari 60%60\% menjadi 64%\approx 64\% — masuk akal karena nasabah risiko rendah lebih jarang klaim.

(d) Misalkan KRK_R = nasabah risiko rendah klaim, KRcK_{R^c} = nasabah risiko tinggi klaim. Keduanya independen.

P(KR)=0.05P(K_R) = 0.05, P(KRc)=0.20P(K_{R^c}) = 0.20.

Tepat satu klaim = (risiko rendah klaim DAN risiko tinggi tidak klaim) ATAU (risiko rendah tidak klaim DAN risiko tinggi klaim):

P(tepat satu)=P(KR)P(KRcc)+P(KRc)P(KRc)P(\text{tepat satu}) = P(K_R) \cdot P(K_{R^c}^c) + P(K_R^c) \cdot P(K_{R^c}) =0.05×0.80+0.95×0.20=0.040+0.190=0.230= 0.05 \times 0.80 + 0.95 \times 0.20 = 0.040 + 0.190 = 0.230

5. Verification

Cek (b) dari sisi lain: P(KcR)=0.95P(K^c \mid R) = 0.95, P(KcRc)=0.80P(K^c \mid R^c) = 0.80:

P(Kc)=0.95×0.60+0.80×0.40=0.570+0.320=0.890P(K^c) = 0.95 \times 0.60 + 0.80 \times 0.40 = 0.570 + 0.320 = 0.890 P(K)=10.890=0.110P(K) = 1 - 0.890 = 0.110 \checkmark

Cek (d): Peluang keduanya klaim =0.05×0.20=0.010= 0.05 \times 0.20 = 0.010; keduanya tidak klaim =0.95×0.80=0.760= 0.95 \times 0.80 = 0.760; tepat satu =10.0100.760=0.230= 1 - 0.010 - 0.760 = 0.230

Cek (c): P(RKc)=57/89>P(R)=0.60P(R \mid K^c) = 57/89 > P(R) = 0.60 — tidak klaim meningkatkan probabilitas risiko rendah, sesuai intuisi ✓

Exam Tips — Soal B
  • Target waktu: 12–14 menit.
  • Common trap (b): Menghitung P(K)P(K) sebagai P(KR)+P(KRc)=0.05+0.20=0.25P(K \mid R) + P(K \mid R^c) = 0.05 + 0.20 = 0.25 — ini salah total karena menjumlahkan probabilitas bersyarat tanpa bobot. Selalu gunakan multiplication rule terlebih dahulu.
  • Common trap (c): Menggunakan P(RKc)=1P(RK)P(R \mid K^c) = 1 - P(R \mid K). Ini salah — komplemen dari probabilitas bersyarat berlaku pada AA, bukan pada kondisi: P(RcKc)=1P(RKc)P(R^c \mid K^c) = 1 - P(R \mid K^c), bukan P(RK)=1P(RKc)P(R \mid K) = 1 - P(R \mid K^c).
  • Pola soal: Bagian (b) adalah Hukum Total Probabilitas dan (c) adalah Teorema Bayes dalam bentuk paling dasar — kenali pola ini karena sangat sering muncul di CF2 dalam berbagai variasi.

Soal C — Challenging

Sebuah sistem keamanan klaim asuransi menggunakan dua tahap verifikasi secara berurutan. Pada tahap pertama, sistem AI menandai sebuah klaim sebagai “mencurigakan” (M) atau “normal” (N). Diketahui P(M)=0.15P(M) = 0.15. Pada tahap kedua, seorang investigator manusia memeriksa klaim yang telah ditandai; investigator juga memeriksa sebagian klaim normal secara acak.

Informasi yang diketahui:

  • Probabilitas klaim adalah fraud (FF): P(F)=0.08P(F) = 0.08
  • Probabilitas AI menandai klaim fraud sebagai mencurigakan: P(MF)=0.90P(M \mid F) = 0.90
  • Probabilitas AI menandai klaim non-fraud sebagai mencurigakan: P(MFc)=0.0826P(M \mid F^c) = 0.082\overline{6}

Dari klaim yang ditandai mencurigakan, investigator memeriksa semua-nya. Dari klaim normal, investigator memeriksa 10%10\% secara acak.

(a) Verifikasi bahwa P(M)=0.15P(M) = 0.15 konsisten dengan data yang diberikan.

(b) Tentukan P(FM)P(F \mid M) — probabilitas suatu klaim adalah fraud diberikan AI menandainya mencurigakan.

(c) Misalkan investigator memeriksa suatu klaim. Tentukan probabilitas klaim tersebut adalah fraud.

(d) Diberikan investigator memeriksa suatu klaim dan klaim tersebut ternyata fraud, tentukan probabilitas klaim tersebut berasal dari tumpukan yang “ditandai” (bukan dari sampel acak normal).

Solusi Soal C

1. Identifikasi Variabel

  • P(F)=0.08P(F) = 0.08, P(Fc)=0.92P(F^c) = 0.92
  • P(MF)=0.90P(M \mid F) = 0.90, P(MFc)=0.08266P(M \mid F^c) = 0.0826\overline{6}
  • Investigator periksa: semua MM, dan 10%10\% dari N=McN = M^c

2. Identifikasi Distribusi / Model

  • Probabilitas bersyarat bertingkat; gunakan multiplication rule dan hukum total probabilitas
  • Ini adalah aplikasi Teorema Bayes yang memerlukan pemahaman struktur dua tahap

3. Setup Persamaan

Hitung joint probabilities via multiplication rule:

P(MF)=P(MF)P(F),P(MFc)=P(MFc)P(Fc)P(M \cap F) = P(M \mid F) \cdot P(F), \quad P(M \cap F^c) = P(M \mid F^c) \cdot P(F^c)

4. Eksekusi Aljabar

(a) Verifikasi P(M)P(M):

P(MF)=0.90×0.08=0.072P(M \cap F) = 0.90 \times 0.08 = 0.072 P(MFc)=0.0826×0.92=0.076P(M \cap F^c) = 0.082\overline{6} \times 0.92 = 0.076 P(M)=P(MF)+P(MFc)=0.072+0.076=0.1480.15P(M) = P(M \cap F) + P(M \cap F^c) = 0.072 + 0.076 = 0.148 \approx 0.15 \checkmark

(Perbedaan kecil akibat pembulatan P(MFc)P(M \mid F^c); nilai tepatnya adalah P(MFc)=0.076/0.92=19/2300.08261P(M \mid F^c) = 0.076/0.92 = 19/230 \approx 0.08261.)

(b) Terapkan definisi probabilitas bersyarat:

P(FM)=P(FM)P(M)=0.0720.148=72148=18370.486P(F \mid M) = \frac{P(F \cap M)}{P(M)} = \frac{0.072}{0.148} = \frac{72}{148} = \frac{18}{37} \approx 0.486

Interpretasi: walaupun AI menandai klaim sebagai mencurigakan, hanya sekitar 48.6%48.6\% yang benar-benar fraud — presisi AI tidak sempurna.

(c) Misalkan II = kejadian klaim diperiksa investigator.

P(IM)=1P(I \mid M) = 1 (semua yang ditandai diperiksa), P(IMc)=0.10P(I \mid M^c) = 0.10.

P(Mc)=1P(M)=10.148=0.852P(M^c) = 1 - P(M) = 1 - 0.148 = 0.852

Hukum Total Probabilitas untuk P(I)P(I):

P(I)=P(IM)P(M)+P(IMc)P(Mc)P(I) = P(I \mid M) \cdot P(M) + P(I \mid M^c) \cdot P(M^c) =1.0×0.148+0.10×0.852=0.148+0.0852=0.2332= 1.0 \times 0.148 + 0.10 \times 0.852 = 0.148 + 0.0852 = 0.2332

Probabilitas klaim yang diperiksa investigator adalah fraud:

P(FI)=P(FI)P(I)P(F \mid I) = \frac{P(F \cap I)}{P(I)}

Hitung P(FI)P(F \cap I): klaim fraud diperiksa jika (i) ditandai AI (dengan prob P(MF)=0.90P(M \mid F) = 0.90) ATAU (ii) tidak ditandai tapi masuk sampel 10%10\% (dengan prob P(McF)0.10=0.10×0.10=0.01P(M^c \mid F) \cdot 0.10 = 0.10 \times 0.10 = 0.01):

P(IF)=P(IM,F)P(MF)+P(IMc,F)P(McF)P(I \mid F) = P(I \mid M, F) \cdot P(M \mid F) + P(I \mid M^c, F) \cdot P(M^c \mid F) =1.0×0.90+0.10×0.10=0.90+0.01=0.91= 1.0 \times 0.90 + 0.10 \times 0.10 = 0.90 + 0.01 = 0.91 P(FI)=P(IF)P(F)=0.91×0.08=0.0728P(F \cap I) = P(I \mid F) \cdot P(F) = 0.91 \times 0.08 = 0.0728 P(FI)=0.07280.23320.312P(F \mid I) = \frac{0.0728}{0.2332} \approx 0.312

(d) Diberikan II dan FF: klaim diperiksa investigator dan fraud. Probabilitas berasal dari tumpukan yang ditandai (MM):

P(MIF)=P(MIF)P(IF)P(M \mid I \cap F) = \frac{P(M \cap I \cap F)}{P(I \cap F)}

P(MIF)=P(IMF)P(MF)=1.0×0.072=0.072P(M \cap I \cap F) = P(I \mid M \cap F) \cdot P(M \cap F) = 1.0 \times 0.072 = 0.072 (karena semua klaim di MM diperiksa)

P(IF)=P(IF)P(F)=0.91×0.08=0.0728P(I \cap F) = P(I \mid F) \cdot P(F) = 0.91 \times 0.08 = 0.0728

P(MIF)=0.0720.0728=7272.8=900910=90910.989P(M \mid I \cap F) = \frac{0.072}{0.0728} = \frac{72}{72.8} = \frac{900}{910} = \frac{90}{91} \approx 0.989

Interpretasi: Jika investigator menemukan klaim fraud, hampir pasti (98.9%98.9\%) klaim tersebut berasal dari tumpukan yang ditandai AI — masuk akal karena AI berhasil menangkap 90%90\% fraud.

5. Verification

Cek (c): P(FI)0.312>P(F)=0.08P(F \mid I) \approx 0.312 > P(F) = 0.08 — pemeriksaan investigator meningkatkan prevalensi fraud secara signifikan (dari 8%8\% ke 31.2%31.2\%) karena investigator lebih cenderung memeriksa klaim mencurigakan. ✓

Cek (d): P(McIF)=190/91=1/910.011P(M^c \mid I \cap F) = 1 - 90/91 = 1/91 \approx 0.011 — hanya 1.1%1.1\% klaim fraud yang diperiksa berasal dari sampel acak normal, konsisten dengan P(McF)×0.10=0.10×0.10=1%P(M^c \mid F) \times 0.10 = 0.10 \times 0.10 = 1\% dari fraud total. ✓

Exam Tips — Soal C
  • Target waktu: 18–22 menit.
  • Common trap (c): Mengasumsikan P(FI)=P(FM)P(F \mid I) = P(F \mid M) — padahal investigator juga memeriksa sebagian klaim normal, sehingga kondisinya berbeda dari sekadar “ditandai AI”.
  • Strategi: Untuk soal berlapis seperti ini, gambar pohon probabilitas dua tahap (AI → Investigator) dengan semua cabang dan probabilitas sebelum mulai menghitung. Visualisasi pohon hampir selalu lebih cepat dan lebih aman dari langsung menghitung.
  • Common trap (d): Mengira P(MIF)=P(MF)P(M \mid I \cap F) = P(M \mid F) — kondisi tambahan II (diperiksa) mengubah probabilitas karena II berkorelasi dengan MM. Harus hitung ulang dengan definisi penuh.
  • Pola soal ini adalah bentuk Teorema Bayes multi-tahap yang populer di CF2 — latih pohon probabilitas hingga refleks.

Section 5 — Verifikasi & Sanity Check

Validasi Probabilitas Bersyarat

Untuk setiap hasil P(AB)P(A \mid B) yang diperoleh:

  1. P(AB)[0,1]P(A \mid B) \in [0,1] — wajib terpenuhi; jika tidak, ada kesalahan di pembilang atau penyebut.
  2. P(AB)+P(AcB)=1P(A \mid B) + P(A^c \mid B) = 1 — komplemen dalam kondisi BB harus menjumlah ke 1.
  3. Jika ABA \subseteq B, maka P(AB)=P(A)/P(B)P(A \mid B) = P(A)/P(B); jika AB=A \cap B = \emptyset, maka P(AB)=0P(A \mid B) = 0.
Verifikasi Multiplication Rule
  1. P(AB)=P(AB)P(B)=P(BA)P(A)P(A \cap B) = P(A \mid B) \cdot P(B) = P(B \mid A) \cdot P(A) — keduanya harus memberikan nilai yang sama.
  2. Dari tabel kontingensi: verifikasi n(AB)/N=[n(AB)/n(B)]×[n(B)/N]n(A \cap B)/N = [n(A \cap B)/n(B)] \times [n(B)/N].
  3. P(AB)min{P(A),P(B)}P(A \cap B) \leq \min\{P(A), P(B)\} — selalu berlaku.
Verifikasi Konsistensi Arah Kondisi

Sebelum menghitung, pastikan arah kondisi sudah benar:

  • AA diberikan BB”: P(AB)=P(AB)/P(B)P(A \mid B) = P(A \cap B) / P(B)BB di penyebut.
  • BB diberikan AA”: P(BA)=P(AB)/P(A)P(B \mid A) = P(A \cap B) / P(A)AA di penyebut.
  • Cek ulang: apakah hasilnya masuk akal secara intuitif? Apakah kondisi yang diberikan seharusnya meningkatkan atau menurunkan probabilitas?

Metode Alternatif

Pendekatan Reduced Sample Space:

Alih-alih menggunakan rumus P(AB)=P(AB)/P(B)P(A \mid B) = P(A \cap B)/P(B), bayangkan ulang BB sebagai Ω\Omega baru:

P(AB)=Pbaru(A)1=probabilitas relatif A dalam Btotal probabilitas dalam BP(A \mid B) = \frac{P_{\text{baru}}(A)}{1} = \frac{\text{probabilitas relatif } A \text{ dalam } B}{\text{total probabilitas dalam } B}

Untuk model equally likely: P(AB)=n(AB)/n(B)P(A \mid B) = n(A \cap B)/n(B) langsung dari frekuensi.

Pohon Probabilitas (Probability Tree):

Untuk masalah multi-tahap, gambar pohon dengan:

  • Cabang pertama: kejadian di tahap pertama (e.g., RR dan RcR^c) dengan probabilitas marginalnya.
  • Cabang kedua dari setiap node: kejadian di tahap kedua (e.g., KK dan KcK^c) dengan probabilitas bersyarat.
  • Setiap jalur daun: kalikan semua probabilitas sepanjang jalur (multiplication rule otomatis teraplikasi).
  • Probabilitas akhir dari kejadian tertentu: jumlahkan semua jalur daun yang relevan.

Section 6 — Visualisasi Mental

Diagram Venn — Reduced Sample Space:

Gambarkan Ω\Omega sebagai persegi panjang besar, dengan lingkaran BB di dalamnya dan lingkaran AA yang sebagian beririsan dengan BB. Saat kita mengkondisikan pada BB:

  • “Zoom in” ke lingkaran BB — ini adalah ruang sampel baru.
  • Area irisan ABA \cap B tetap ada di dalam ruang baru.
  • P(AB)P(A \mid B) adalah proporsi lingkaran BB yang terisi oleh ABA \cap B — bukan proporsi seluruh Ω\Omega.

Secara visual: P(AB)P(A \mid B) adalah “ukuran ABA \cap B relatif terhadap ukuran BB”, bukan relatif terhadap Ω\Omega. Ini menjelaskan mengapa mengkondisikan pada BB yang besar (mendekati Ω\Omega) hampir tidak mengubah probabilitas, sementara mengkondisikan pada BB yang kecil bisa mengubahnya drastis.

Pohon Probabilitas — Visualisasi Chain Rule:

            P(K|R) = 0.05     → K:    P(R) × P(K|R) = 0.030
P(R) = 0.6 ↗
            P(K^c|R) = 0.95   → K^c:  P(R) × P(K^c|R) = 0.570


P(R^c) = 0.4
            P(K|R^c) = 0.20   → K:    P(R^c) × P(K|R^c) = 0.080
            P(K^c|R^c) = 0.80 → K^c:  P(R^c) × P(K^c|R^c) = 0.320

Total semua daun: 0.030+0.570+0.080+0.320=1.0000.030 + 0.570 + 0.080 + 0.320 = 1.000

Hubungan Visual ↔ Rumus

Area overlap ABA \cap B di diagram Venn berkorespondensi langsung dengan pembilang dalam rumus:

Area(AB)P(AB)=P(AB)P(B)\text{Area}(A \cap B) \longleftrightarrow P(A \cap B) = P(A \mid B) \cdot P(B)

Rasio area yang “dikondisikan” berkorespondensi dengan probabilitas bersyarat:

Area(AB)Area(B)P(AB)=P(AB)P(B)\frac{\text{Area}(A \cap B)}{\text{Area}(B)} \longleftrightarrow P(A \mid B) = \frac{P(A \cap B)}{P(B)}

Setiap jalur dari akar ke daun di pohon probabilitas berkorespondensi dengan satu suku dalam chain rule:

Jalur: RKP(R)P(KR)=P(RK)\text{Jalur: } R \to K \longleftrightarrow P(R) \cdot P(K \mid R) = P(R \cap K)

Section 7 — Jebakan Umum

Kesalahan Parametrisasi

Kesalahan 1 — Membalik Arah Kondisi: Menghitung P(BA)P(B \mid A) ketika soal meminta P(AB)P(A \mid B). Pembilang sama (P(AB)P(A \cap B)), tapi penyebutnya berbeda. Ini adalah kesalahan paling umum dan paling berbahaya.

Salah: P(FM)=P(MF)=0.90P(F \mid M) = P(M \mid F) = 0.90

Benar: P(FM)=P(FM)/P(M)=0.072/0.1480.486P(F \mid M) = P(F \cap M)/P(M) = 0.072/0.148 \approx 0.486

Kesalahan Konseptual
  1. "P(AB)+P(ABc)=1P(A \mid B) + P(A \mid B^c) = 1" — ini SALAH. Yang benar adalah P(AB)+P(AcB)=1P(A \mid B) + P(A^c \mid B) = 1 (komplemen dari AA, bukan komplemen dari kondisi). Dua kondisi berbeda (BB vs BcB^c) menghasilkan dua distribusi berbeda yang tidak harus menjumlah ke 1.
  2. Menjumlahkan P(KR)+P(KRc)P(K \mid R) + P(K \mid R^c) untuk mendapat P(K)P(K). Ini salah karena probabilitas bersyarat harus dibobot oleh probabilitas marginalnya: P(K)=P(KR)P(R)+P(KRc)P(Rc)P(K) = P(K \mid R) P(R) + P(K \mid R^c) P(R^c).
  3. Mengasumsikan P(AB)=P(A)P(A \mid B) = P(A) tanpa verifikasi. Kesamaan ini hanya berlaku untuk kejadian independen — harus diverifikasi, bukan diasumsikan.
  4. Mengkondisikan pada kejadian dengan P(B)=0P(B) = 0. Jika P(B)=0P(B) = 0, P(AB)P(A \mid B) tidak terdefinisi. Untuk distribusi kontinu, mengkondisikan pada nilai tunggal {Y=y}\{Y = y\} memerlukan teori khusus (3.3 Distribusi Bersyarat (Conditional Distribution)).
Kesalahan Interpretasi Soal
  • “Diberikan bahwa BB terjadi” atau “jika diketahui BB \leftrightarrow hitung P(AB)P(A \mid B)BB di penyebut.
  • “Probabilitas AA dan BB terjadi bersama” \leftrightarrow hitung P(AB)P(A \cap B) — gunakan multiplication rule.
  • “Probabilitas AA terjadi setelah BB dalam konteks temporal \leftrightarrow ini mungkin P(AB)P(A \mid B) bukan P(AB)P(A \cap B) — baca konteks dengan teliti.
  • “Probabilitas AA, mengingat BB sudah terjadi” \leftrightarrow P(AB)P(A \mid B), bukan P(AB)P(A \cup B).
Red Flags
  • Soal memberikan P(AB)P(A \mid B) dan meminta P(BA)P(B \mid A): Ini adalah Teorema Bayes — jangan coba-coba langsung membalik; gunakan formula Bayes dari 1.6 Teorema Bayes dan Hukum Probabilitas Total.
  • Dua kejadian dengan probabilitas bersyarat berbeda dari marginalnya: Ini menandakan kejadian tidak independen — konsekuensi penting untuk perhitungan selanjutnya.
  • Soal menyebut “sequential” atau “berurutan” atau “tahap”: Ini adalah sinyal kuat untuk menggunakan chain rule dan pohon probabilitas.
  • Penyebut hampir nol: Jika P(B)P(B) sangat kecil, P(AB)P(A \mid B) sangat sensitif terhadap error di P(AB)P(A \cap B) — pastikan presisi perhitungan joint probability.
  • Soal meminta probabilitas bersyarat dari distribusi kontinu (e.g., P(X>2X>1)P(X > 2 \mid X > 1)): Gunakan definisi yang sama, tapi hitung via CDF atau PDF — terhubung ke 2.2 Variabel Acak Kontinu.

Section 8 — Ringkasan Eksekutif

Must-Remember
  1. Definisi probabilitas bersyarat: P(AB)=P(AB)P(B),P(B)>0P(A \mid B) = \frac{P(A \cap B)}{P(B)}, \quad P(B) > 0
  2. Multiplication rule (dua arah): P(AB)=P(AB)P(B)=P(BA)P(A)P(A \cap B) = P(A \mid B) \cdot P(B) = P(B \mid A) \cdot P(A)
  3. Chain rule untuk tiga kejadian: P(ABC)=P(A)P(BA)P(CAB)P(A \cap B \cap C) = P(A) \cdot P(B \mid A) \cdot P(C \mid A \cap B)
  4. Normalisasi dalam kondisi BB: P(AB)+P(AcB)=1(bukan P(AB)+P(ABc)=1)P(A \mid B) + P(A^c \mid B) = 1 \quad \text{(bukan } P(A \mid B) + P(A \mid B^c) = 1\text{)}
  5. Dari tabel kontingensi (equally likely): P(AB)=n(AB)n(B)P(A \mid B) = \frac{n(A \cap B)}{n(B)}

Kapan Digunakan

  • Trigger keywords: “diberikan bahwa”, “jika diketahui”, “given that”, “mengingat”, “setelah diketahui”, “probabilitas bersyarat”, “conditional probability”.
  • Tipe skenario soal:
    • Diberikan data tabel kontingensi — hitung P(AB)P(A \mid B) langsung dari frekuensi.
    • Diberikan P(AB)P(A \mid B) dan marginal — hitung P(AB)P(A \cap B) via multiplication rule.
    • Masalah multi-tahap (profil risiko → klaim, tes diagnostik → penyakit) — gunakan pohon probabilitas dan chain rule.
    • Hitung P(A)P(A) dari partisi bersyarat — preview Hukum Total Probabilitas (1.6 Teorema Bayes dan Hukum Probabilitas Total).
    • Memperbarui probabilitas setelah informasi baru — preview Teorema Bayes.

Kapan TIDAK Boleh Digunakan

  • Jangan gunakan P(AB)P(A \mid B) untuk mendapatkan P(BA)P(B \mid A) secara langsung — selalu butuh Teorema Bayes; beralih ke 1.6 Teorema Bayes dan Hukum Probabilitas Total.
  • Jika P(B)=0P(B) = 0: Probabilitas bersyarat tidak terdefinisi dalam kerangka CF2.
  • Jika sudah diverifikasi ABA \perp B: Maka P(AB)=P(A)P(A \mid B) = P(A) dan perhitungan bersyarat tidak mengubah apapun — gunakan probabilitas marginal langsung dan lihat 1.5 Kejadian Independen.
  • Untuk distribusi kontinu: Prinsip yang sama berlaku tetapi via PDF/CDF — beralih ke 3.3 Distribusi Bersyarat (Conditional Distribution).

Quick Decision Tree

graph TD
    A["Soal melibatkan probabilitas dengan kondisi tertentu"] --> B["Apakah ada frasa 'diberikan bahwa' atau 'jika diketahui'?"]
    B -->|"Ya"| C["Identifikasi: apa A dan apa B dalam P(A|B)?"]
    B -->|"Tidak"| D["Mungkin mencari P(A irisan B)<br>gunakan Multiplication Rule"]
    C --> E["Apakah P(A irisan B) dan P(B) diketahui?"]
    E -->|"Ya langsung"| F["P(A|B) = P(A irisan B) / P(B)"]
    E -->|"Tidak langsung"| G["Apakah ada tabel kontingensi?"]
    G -->|"Ya"| H["P(A|B) = n(A irisan B) / n(B)<br>langsung dari frekuensi"]
    G -->|"Tidak"| I["Apakah ada P(B|A) dan P(A) tersedia?"]
    I -->|"Ya"| J["Hitung P(A irisan B) = P(B|A) x P(A)<br>lalu bagi P(B)"]
    I -->|"Tidak, soal multi-tahap"| K["Gambar pohon probabilitas<br>Gunakan Chain Rule"]
    K --> L["Kalikan sepanjang tiap jalur pohon<br>Jumlahkan jalur yang relevan"]
    F --> M["Verifikasi: hasil dalam [0,1]?<br>P(A|B) + P(A^c|B) = 1?"]
    H --> M
    J --> M
    L --> M
    M --> N["Apakah soal kemudian meminta P(B|A)?"]
    N -->|"Ya"| O["Gunakan Teorema Bayes<br>lihat topik 1.6"]
    N -->|"Tidak"| P["Selesai"]

Follow-up Options
  1. “Berikan contoh soal probabilitas bersyarat untuk variabel acak kontinu — P(X>3X>1)P(X > 3 \mid X > 1) untuk distribusi Eksponensial”
  2. “Jelaskan hubungan 1.4 Probabilitas Bersyarat dengan 1.6 Teorema Bayes dan Hukum Probabilitas Total — bagaimana multiplication rule menjadi fondasi Teorema Bayes”
  3. “Buat flashcard 1-halaman untuk topik ini”

📖 Ref: Hogg-Tanis-Zimm (2015) Bab 1.4; Miller et al. (2014) Bab 2.7–2.9 | 🗓️ 2026-02-21 | #CF2 #Probabilitas #ProbabilitasBersyarat #MultiplicationRule #ChainRule #ReducedSampleSpace #PohonProbabilitas