PAI · AAMAI · 2026
Aktuaria
Indonesia
CF2 · Materi 1.6

Teorema Bayes dan Hukum Probabilitas Total

2026-02-21 Medium Bobot: 15–25% Hogg-Tanis-Zimmerman (2015) Bab 1.4; Miller et al. (2014) Bab 2.10–2.11
CF2ProbabilitasStatistikaTeoremaBAyesHukumProbabilitasTotalProbabilitasPosteriorProbabilitasPriorPartisiUpdateBelief

📊 1.6 — Teorema Bayes dan Hukum Probabilitas Total

Ringkasan Cepat

Topik: Teorema Bayes dan Hukum Probabilitas Total | Bobot: ~15–25% | Difficulty: Medium Ref: Hogg-Tanis-Zimm (2015) Bab 1.4; Miller et al. (2014) Bab 2.10–2.11 | Prereq: 1.1 Eksperimen Acak dan Ruang Sampel, 1.2 Aksioma dan Perhitungan Probabilitas, 1.4 Probabilitas Bersyarat, 1.5 Kejadian Independen

Section 0 — Pemetaan Topik

Topik CF2Sub-topik IDSkill DiujiBobotDifficultyPrerequisiteConnected TopicsReferensi
Topik 1: Dasar-Dasar Probabilitas1.6Mendefinisikan partisi Ω\Omega dan memverifikasi syaratnya; menerapkan Hukum Total Probabilitas (Law of Total Probability / LOTP) untuk menghitung probabilitas marginal; menerapkan Teorema Bayes untuk memperbarui probabilitas; membedakan probabilitas prior dan posterior; menghitung probabilitas posterior dari data diagnosis atau klasifikasi risiko; menyusun dan membaca pohon probabilitas dua tahap15–25%Medium1.1 Eksperimen Acak dan Ruang Sampel, 1.2 Aksioma dan Perhitungan Probabilitas, 1.4 Probabilitas Bersyarat, 1.5 Kejadian Independen3.3 Distribusi Bersyarat (Conditional Distribution), 3.4 Nilai Harapan dan Variansi Bersyarat, 4.5 Estimasi Parameter (Bayesian), 3.7 Distribusi Majemuk (Compound Distribution)Hogg-Tanis-Zimm (2015) Bab 1.4; Miller et al. (2014) Bab 2.10–2.11

Section 1 — Intuisi

Bayangkan seorang dokter yang sedang menginterpretasikan hasil tes diagnostik seorang pasien. Tes tersebut menunjukkan hasil positif untuk suatu penyakit langka. Pertanyaannya bukan “seberapa akurat tesnya?” — melainkan “mengingat tes positif ini, seberapa besar kemungkinan pasien benar-benar sakit?” Jawaban atas pertanyaan ini memerlukan dua informasi: (1) seberapa umum penyakit tersebut di populasi (prior probability), dan (2) seberapa baik tes mendeteksi penyakit dan membedakannya dari orang sehat (likelihood). Teorema Bayes adalah mesin matematika yang menggabungkan kedua informasi ini menjadi jawaban yang tepat — disebut posterior probability.

Dalam konteks aktuaria, mekanisme yang sama digunakan setiap hari. Seorang aktuaris mengetahui proporsi nasabah dalam berbagai kelas risiko (prior), dan mengetahui probabilitas klaim dari setiap kelas (likelihood). Ketika seorang nasabah tertentu mengajukan klaim, Teorema Bayes menjawab: “mengingat klaim ini terjadi, seberapa besar kemungkinan nasabah ini termasuk kelas risiko tinggi?” Jawaban ini — probabilitas posterior — digunakan untuk memperbarui penilaian risiko dan menetapkan premi yang lebih akurat. Inilah fondasi dari credibility theory yang menjadi tulang punggung penetapan premi aktuaria modern.

Hukum Probabilitas Total (LOTP) adalah batu loncatan menuju Teorema Bayes. Sebelum bisa memperbarui probabilitas dengan Bayes, kita perlu menghitung probabilitas marginal dari suatu kejadian yang bisa terjadi melalui beberapa jalur berbeda. LOTP menjawab ini dengan menjumlahkan kontribusi dari setiap jalur — seperti menghitung total kemacetan di kota dengan menjumlahkan kemacetan dari tiap ruas jalan. Bersama-sama, LOTP dan Teorema Bayes membentuk sistem yang paling powerful dalam seluruh Topik 1, dan pemahaman mendalam tentang keduanya membuka pintu menuju distribusi bersyarat di Topik 3 dan estimasi Bayesian di Topik 4.

Section 2 — Definisi Formal

Definisi Matematis

Partisi Ruang Sampel: Koleksi kejadian {B1,B2,,Bk}\{B_1, B_2, \ldots, B_k\} merupakan partisi dari Ω\Omega jika:

BiBj=untuk semua ij(saling eksklusif)B_i \cap B_j = \emptyset \quad \text{untuk semua } i \neq j \quad \text{(saling eksklusif)} i=1kBi=Ω(exhaustive)\bigcup_{i=1}^{k} B_i = \Omega \quad \text{(exhaustive)} P(Bi)>0untuk semua i(non-trivial)P(B_i) > 0 \quad \text{untuk semua } i \quad \text{(non-trivial)}

Hukum Probabilitas Total (Law of Total Probability — LOTP):

Misalkan {B1,B2,,Bk}\{B_1, B_2, \ldots, B_k\} adalah partisi dari Ω\Omega dengan P(Bi)>0P(B_i) > 0 untuk semua ii. Maka untuk sembarang kejadian AA:

P(A)=i=1kP(ABi)P(Bi)P(A) = \sum_{i=1}^{k} P(A \mid B_i) \cdot P(B_i)

Teorema Bayes:

Dengan asumsi yang sama di atas, untuk setiap j=1,2,,kj = 1, 2, \ldots, k:

P(BjA)=P(ABj)P(Bj)i=1kP(ABi)P(Bi)=P(ABj)P(Bj)P(A)P(B_j \mid A) = \frac{P(A \mid B_j) \cdot P(B_j)}{\displaystyle\sum_{i=1}^{k} P(A \mid B_i) \cdot P(B_i)} = \frac{P(A \mid B_j) \cdot P(B_j)}{P(A)}

Variabel & Parameter

SimbolMaknaCatatan
{B1,,Bk}\{B_1, \ldots, B_k\}Partisi dari Ω\OmegaSaling eksklusif, exhaustive, P(Bi)>0P(B_i) > 0
P(Bi)P(B_i)Probabilitas prior (prior probability) kejadian BiB_iDiketahui sebelum mengamati AA
P(ABi)P(A \mid B_i)Likelihood: probabilitas AA terjadi diberikan BiB_iMendeskripsikan mekanisme pembangkitan AA
P(A)P(A)Probabilitas marginal AADihitung via LOTP: iP(ABi)P(Bi)\sum_i P(A \mid B_i)P(B_i)
P(BjA)P(B_j \mid A)Probabilitas posterior (posterior probability) BjB_jDiperbaharui setelah mengamati AA

Rumus Utama

P(A)=i=1kP(ABi)P(Bi)P(A) = \sum_{i=1}^{k} P(A \mid B_i) \cdot P(B_i)

Label: Hukum Probabilitas Total (LOTP) — probabilitas marginal AA dihitung sebagai rata-rata tertimbang dari likelihood P(ABi)P(A \mid B_i), dengan bobot P(Bi)P(B_i) yang merupakan probabilitas prior setiap partisi.

P(BjA)=P(ABj)P(Bj)P(A)P(B_j \mid A) = \frac{P(A \mid B_j) \cdot P(B_j)}{P(A)}

Label: Teorema Bayes (Bentuk Kompak) — posterior proporsional terhadap likelihood dikali prior; penyebut P(A)P(A) adalah konstanta normalisasi yang menjamin total posterior =1= 1.

P(BjA)=P(ABj)P(Bj)i=1kP(ABi)P(Bi)P(B_j \mid A) = \frac{P(A \mid B_j) \cdot P(B_j)}{\displaystyle\sum_{i=1}^{k} P(A \mid B_i) \cdot P(B_i)}

Label: Teorema Bayes (Bentuk Ekspansi) — penyebut dieksplisitkan via LOTP; ini adalah bentuk yang digunakan dalam perhitungan aktual.

P(BjA)P(ABj)P(Bj)P(B_j \mid A) \propto P(A \mid B_j) \cdot P(B_j)

Label: Bentuk Proporsional Bayes — karena penyebut P(A)P(A) sama untuk semua jj, posterior proporsional terhadap produk likelihood dan prior; berguna untuk membandingkan posterior relatif antar hipotesis tanpa menghitung P(A)P(A).

j=1kP(BjA)=1\sum_{j=1}^{k} P(B_j \mid A) = 1

Label: Normalisasi Posterior — posterior membentuk distribusi probabilitas yang valid atas partisi {Bj}\{B_j\}; dapat digunakan sebagai sanity check.

Asumsi Eksplisit

  • Partisi {Bi}\{B_i\} harus exhaustive dan saling eksklusif: Jika {Bi}\{B_i\} bukan partisi sempurna (ada overlap atau gap), LOTP tidak berlaku secara langsung.
  • P(Bi)>0P(B_i) > 0 untuk semua ii: Partisi dengan P(Bi)=0P(B_i) = 0 tidak berkontribusi ke LOTP dan tidak relevan di Teorema Bayes (probabilitas posterior dari BiB_i dengan prior nol tetap nol, apapun observasinya).
  • P(A)>0P(A) > 0: Teorema Bayes membutuhkan P(A)>0P(A) > 0 di penyebut — mengkondisikan pada kejadian yang mustahil tidak terdefinisi.
  • Likelihood P(ABi)P(A \mid B_i) diketahui atau dapat diestimasikan: Teorema Bayes “membalik” kondisi dari P(ABi)P(A \mid B_i) menjadi P(BiA)P(B_i \mid A); keakuratan hasilnya bergantung pada keakuratan likelihood yang diinput.

Section 3 — Jembatan Logika

Dari Definisi ke Rumus

LOTP dan Teorema Bayes keduanya berakar dari satu langkah sederhana: partisi kejadian AA menggunakan partisi {Bi}\{B_i\} dari Ω\Omega. Karena {Bi}\{B_i\} exhaustive, AA dapat ditulis sebagai: A=(AB1)(AB2)(ABk)A = (A \cap B_1) \cup (A \cap B_2) \cup \cdots \cup (A \cap B_k) Karena BiB_i saling eksklusif, {ABi}\{A \cap B_i\} juga saling eksklusif. Terapkan Aksioma 3 (1.2 Aksioma dan Perhitungan Probabilitas): P(A)=i=1kP(ABi)=i=1kP(ABi)P(Bi)P(A) = \sum_{i=1}^k P(A \cap B_i) = \sum_{i=1}^k P(A \mid B_i) P(B_i) Ini adalah LOTP. Teorema Bayes hanyalah definisi probabilitas bersyarat (1.4 Probabilitas Bersyarat) yang dikombinasikan dengan LOTP di penyebutnya: P(BjA)=P(ABj)P(A)=P(ABj)P(Bj)iP(ABi)P(Bi)P(B_j \mid A) = \frac{P(A \cap B_j)}{P(A)} = \frac{P(A \mid B_j)P(B_j)}{\sum_i P(A \mid B_i)P(B_i)} Tidak ada yang baru secara matematis — hanya penggabungan cerdas dari dua alat yang sudah dikuasai.

Support dan Domain
  • LOTP berlaku untuk sembarang partisi — dua partisi berbeda (berbeda jumlah atau definisi BiB_i) akan memberikan hasil P(A)P(A) yang sama (karena P(A)P(A) adalah nilai tunggal).
  • Posterior P(BjA)P(B_j \mid A) bergantung pada pilihan partisi — nilai ini bermakna hanya dalam konteks partisi {Bi}\{B_i\} yang dipilih.
  • Untuk kasus dua partisi (k=2k = 2, yaitu BB dan BcB^c): LOTP menjadi P(A)=P(AB)P(B)+P(ABc)P(Bc)P(A) = P(A \mid B)P(B) + P(A \mid B^c)P(B^c), dan Teorema Bayes menjadi P(BA)=P(AB)P(B)/[P(AB)P(B)+P(ABc)P(Bc)]P(B \mid A) = P(A \mid B)P(B) / [P(A \mid B)P(B) + P(A \mid B^c)P(B^c)].

Derivasi LOTP dari Aksioma:

Karena {B1,,Bk}\{B_1, \ldots, B_k\} adalah partisi dari Ω\Omega:

A=AΩ=Ai=1kBi=i=1k(ABi)A = A \cap \Omega = A \cap \bigcup_{i=1}^k B_i = \bigcup_{i=1}^k (A \cap B_i)

Karena BiBj=B_i \cap B_j = \emptyset untuk iji \neq j, maka (ABi)(ABj)=ABiBj=A=(A \cap B_i) \cap (A \cap B_j) = A \cap B_i \cap B_j = A \cap \emptyset = \emptyset.

Jadi {ABi}\{A \cap B_i\} juga saling eksklusif. Terapkan aditivitas (Aksioma 3):

P(A)=i=1kP(ABi)=i=1kP(ABi)P(Bi)P(A) = \sum_{i=1}^k P(A \cap B_i) = \sum_{i=1}^k P(A \mid B_i) \cdot P(B_i) \quad \blacksquare

Derivasi Teorema Bayes dari Definisi dan LOTP:

P(BjA)=P(ABj)P(A)(definisi probabilitas bersyarat)P(B_j \mid A) = \frac{P(A \cap B_j)}{P(A)} \quad \text{(definisi probabilitas bersyarat)} =P(ABj)P(Bj)P(A)(multiplication rule)= \frac{P(A \mid B_j) \cdot P(B_j)}{P(A)} \quad \text{(multiplication rule)} =P(ABj)P(Bj)i=1kP(ABi)P(Bi)(LOTP di penyebut)= \frac{P(A \mid B_j) \cdot P(B_j)}{\displaystyle\sum_{i=1}^k P(A \mid B_i) \cdot P(B_i)} \quad \text{(LOTP di penyebut)} \quad \blacksquare

Mnemonic — “Prior ×\times Likelihood ÷\div Evidence”:

P(BjA)Posterior=P(ABj)Likelihood×P(Bj)PriorP(A)Evidence (Normalisasi)\underbrace{P(B_j \mid A)}_{\text{Posterior}} = \frac{\overbrace{P(A \mid B_j)}^{\text{Likelihood}} \times \overbrace{P(B_j)}^{\text{Prior}}}{\underbrace{P(A)}_{\text{Evidence (Normalisasi)}}}

Posterior \propto Likelihood ×\times Prior — penyebut hanya normalisasi agar total menjadi 1.

Pohon Probabilitas Dua Tahap — Struktur Umum:

Tahap 1 (Prior)         Tahap 2 (Likelihood)       Daun (Joint)
B_1: P(B_1)     ─→  A | B_1: P(A|B_1)     ─→  P(B_1)·P(A|B_1)  = P(A∩B_1)
                └─→  A^c| B_1: P(A^c|B_1)  ─→  P(B_1)·P(A^c|B_1)

B_2: P(B_2)     ─→  A | B_2: P(A|B_2)     ─→  P(B_2)·P(A|B_2)  = P(A∩B_2)
                └─→  A^c| B_2: P(A^c|B_2)  ─→  P(B_2)·P(A^c|B_2)

   ⋮                        ⋮                         ⋮

P(A)P(A) = jumlah daun dengan label AA = iP(Bi)P(ABi)\sum_i P(B_i) \cdot P(A \mid B_i)

P(BjA)P(B_j \mid A) = daun (Bj,A)(B_j, A) dibagi P(A)P(A)

Dilarang
  1. Dilarang membalik likelihood menjadi posterior secara langsung: P(BjA)P(ABj)P(B_j \mid A) \neq P(A \mid B_j). Ini adalah confusion of the inverse — kesalahan yang sudah disinggung di 1.4 Probabilitas Bersyarat dan secara formal diselesaikan oleh Teorema Bayes. Selalu sertakan prior P(Bj)P(B_j) dan normalisasi P(A)P(A).
  2. Dilarang menggunakan LOTP jika {Bi}\{B_i\} bukan partisi sejati: Jika ada overlap (BiBjB_i \cap B_j \neq \emptyset) atau gap (ada bagian Ω\Omega tidak tercakup), penjumlahan iP(ABi)P(Bi)\sum_i P(A \mid B_i)P(B_i) tidak menghasilkan P(A)P(A) yang benar. Selalu verifikasi bahwa {Bi}\{B_i\} saling eksklusif dan exhaustive sebelum menggunakan LOTP.
  3. Dilarang menjumlahkan posterior dari partisi yang berbeda: jP(BjA)=1\sum_j P(B_j \mid A) = 1 hanya berlaku untuk satu partisi yang konsisten. Mencampur posterior dari dua set partisi berbeda dan menjumlahkan hasilnya adalah nonsense matematis.

Section 4 — Contoh Soal

Soal A — Fundamental

Sebuah perusahaan asuransi kendaraan mengklasifikasikan pengemudi menjadi dua kelompok: risiko rendah (RR) sebanyak 70% dari portofolio, dan risiko tinggi (TT) sebanyak 30%. Probabilitas klaim dalam setahun: P(KR)=0.10P(K \mid R) = 0.10 dan P(KT)=0.30P(K \mid T) = 0.30.

(a) Hitung P(K)P(K) — probabilitas sembarang nasabah mengajukan klaim.

(b) Seorang nasabah ternyata mengajukan klaim. Hitung P(RK)P(R \mid K) dan P(TK)P(T \mid K).

(c) Verifikasi bahwa P(RK)+P(TK)=1P(R \mid K) + P(T \mid K) = 1.

(d) Interpretasikan perubahan dari prior ke posterior: apakah informasi klaim mengubah penilaian risiko nasabah?

Solusi Soal A

1. Identifikasi Variabel

  • P(R)=0.70P(R) = 0.70, P(T)=0.30P(T) = 0.30 (prior; partisi karena RT=ΩR \cup T = \Omega dan RT=R \cap T = \emptyset)
  • P(KR)=0.10P(K \mid R) = 0.10, P(KT)=0.30P(K \mid T) = 0.30 (likelihood)
  • Cari: P(K)P(K) via LOTP, lalu P(RK)P(R \mid K) dan P(TK)P(T \mid K) via Bayes

2. Identifikasi Distribusi / Model

  • Dua partisi: {R,T}\{R, T\}; terapkan LOTP lalu Teorema Bayes
  • Pohon probabilitas dua tahap: Tahap 1 = profil risiko, Tahap 2 = klaim

3. Setup Persamaan

P(K)=P(KR)P(R)+P(KT)P(T)P(K) = P(K \mid R) \cdot P(R) + P(K \mid T) \cdot P(T) P(RK)=P(KR)P(R)P(K),P(TK)=P(KT)P(T)P(K)P(R \mid K) = \frac{P(K \mid R) \cdot P(R)}{P(K)}, \quad P(T \mid K) = \frac{P(K \mid T) \cdot P(T)}{P(K)}

4. Eksekusi Aljabar

(a) LOTP:

P(K)=0.10×0.70+0.30×0.30=0.070+0.090=0.160P(K) = 0.10 \times 0.70 + 0.30 \times 0.30 = 0.070 + 0.090 = 0.160

(b) Teorema Bayes:

P(RK)=0.10×0.700.160=0.0700.160=716=0.4375P(R \mid K) = \frac{0.10 \times 0.70}{0.160} = \frac{0.070}{0.160} = \frac{7}{16} = 0.4375 P(TK)=0.30×0.300.160=0.0900.160=916=0.5625P(T \mid K) = \frac{0.30 \times 0.30}{0.160} = \frac{0.090}{0.160} = \frac{9}{16} = 0.5625

(c) P(RK)+P(TK)=7/16+9/16=16/16=1P(R \mid K) + P(T \mid K) = 7/16 + 9/16 = 16/16 = 1

(d) Interpretasi perubahan prior → posterior:

KelompokPriorPosterior (given Klaim)Perubahan
RR (Risiko Rendah)0.700.700.43750.4375Turun \downarrow
TT (Risiko Tinggi)0.300.300.56250.5625Naik \uparrow

Informasi bahwa nasabah mengajukan klaim memperbarui penilaian risiko secara signifikan: probabilitas bahwa nasabah termasuk risiko tinggi meningkat dari 30% (prior) menjadi 56.25% (posterior). Ini masuk akal — klaim lebih sering datang dari kelompok risiko tinggi, sehingga observasi klaim “menggeser” keyakinan ke arah risiko tinggi.

5. Verification

Pohon probabilitas — verifikasi semua empat daun menjumlah ke 1:

JalurProbabilitas Daun
RKR \to K0.70×0.10=0.0700.70 \times 0.10 = 0.070
RKcR \to K^c0.70×0.90=0.6300.70 \times 0.90 = 0.630
TKT \to K0.30×0.30=0.0900.30 \times 0.30 = 0.090
TKcT \to K^c0.30×0.70=0.2100.30 \times 0.70 = 0.210
Total0.070+0.630+0.090+0.210=1.0000.070 + 0.630 + 0.090 + 0.210 = \mathbf{1.000}

P(K)=0.070+0.090=0.160P(K) = 0.070 + 0.090 = 0.160 ✓ (jumlah daun dengan label KK)

Exam Tips — Soal A
  • Target waktu: 8–10 menit.
  • Common trap: Menghitung P(K)=P(KR)+P(KT)=0.10+0.30=0.40P(K) = P(K \mid R) + P(K \mid T) = 0.10 + 0.30 = 0.40 — menjumlahkan likelihood tanpa bobot prior. Ini melanggar LOTP; prior harus menjadi bobot.
  • Shortcut: Buat tabel dua kolom: (i) P(Bi)P(B_i) dan (ii) P(ABi)×P(Bi)P(A \mid B_i) \times P(B_i). Jumlah kolom (ii) = P(A)P(A). Posterior tiap BiB_i = nilai di baris (ii) dibagi total (ii). Ini adalah metode tabular yang paling cepat dan aman.
  • Interpretasi wajib: Soal CF2 sering meminta interpretasi perubahan prior → posterior. Selalu nyatakan: arah perubahan (naik/turun) dan mengapa perubahan itu masuk akal secara probabilistik.

Soal B — Exam-Typical

Sebuah laboratorium diagnostik mengembangkan tes untuk mendeteksi penyakit langka DD. Diketahui:

  • Prevalensi penyakit di populasi: P(D)=0.02P(D) = 0.02 (2%)
  • Sensitivitas tes (true positive rate): P(+D)=0.95P(+ \mid D) = 0.95
  • Spesifisitas tes (true negative rate): P(Dc)=0.90P(- \mid D^c) = 0.90, sehingga P(+Dc)=0.10P(+ \mid D^c) = 0.10

Sebuah polis asuransi kesehatan mensyaratkan tes ini, dan hasilnya digunakan untuk penyesuaian premi.

(a) Hitung P(+)P(+) — probabilitas hasil tes positif dari populasi umum.

(b) Hitung P(D+)P(D \mid +) — probabilitas seseorang benar-benar sakit diberikan tes positif (positive predictive value).

(c) Hitung P(Dc)P(D^c \mid -) — probabilitas seseorang benar-benar sehat diberikan tes negatif (negative predictive value).

(d) Seorang aktuaris berargumen bahwa tes ini tidak layak digunakan untuk penyesuaian premi karena “bahkan dengan tes positif, mayoritas orang masih sehat.” Verifikasi atau bantah argumen ini secara kuantitatif.

Solusi Soal B

1. Identifikasi Variabel

  • P(D)=0.02P(D) = 0.02, P(Dc)=0.98P(D^c) = 0.98
  • P(+D)=0.95P(+ \mid D) = 0.95, P(+Dc)=0.10P(+ \mid D^c) = 0.10
  • P(D)=0.05P(- \mid D) = 0.05, P(Dc)=0.90P(- \mid D^c) = 0.90
  • Partisi: {D,Dc}\{D, D^c\}

2. Identifikasi Distribusi / Model

  • LOTP untuk P(+)P(+), lalu Teorema Bayes dua arah: P(D+)P(D \mid +) dan P(Dc)P(D^c \mid -)

3. Setup Persamaan

P(+)=P(+D)P(D)+P(+Dc)P(Dc)P(+) = P(+ \mid D) \cdot P(D) + P(+ \mid D^c) \cdot P(D^c)

P(D+)=P(+D)P(D)P(+)P(D \mid +) = \frac{P(+ \mid D) \cdot P(D)}{P(+)}

P(Dc)=P(Dc)P(Dc)P()=P(Dc)P(Dc)1P(+)P(D^c \mid -) = \frac{P(- \mid D^c) \cdot P(D^c)}{P(-)} = \frac{P(- \mid D^c) \cdot P(D^c)}{1 - P(+)}

4. Eksekusi Aljabar

(a) LOTP:

P(+)=0.95×0.02+0.10×0.98=0.019+0.098=0.117P(+) = 0.95 \times 0.02 + 0.10 \times 0.98 = 0.019 + 0.098 = 0.117

(b) Positive Predictive Value:

P(D+)=0.95×0.020.117=0.0190.1170.162416.2%P(D \mid +) = \frac{0.95 \times 0.02}{0.117} = \frac{0.019}{0.117} \approx 0.1624 \approx 16.2\%

(c) P()=1P(+)=10.117=0.883P(-) = 1 - P(+) = 1 - 0.117 = 0.883

Negative Predictive Value:

P(Dc)=0.90×0.980.883=0.8820.8830.998999.9%P(D^c \mid -) = \frac{0.90 \times 0.98}{0.883} = \frac{0.882}{0.883} \approx 0.9989 \approx 99.9\%

(d) Verifikasi argumen aktuaris:

P(D+)16.2%P(D \mid +) \approx 16.2\%, artinya 84% orang dengan tes positif sebenarnya sehat.

Argumen aktuaris terbukti benar secara kuantitatif: mayoritas (84%) dari mereka yang tes positif memang sehat. Fenomena ini terjadi karena prevalensi penyakit sangat rendah (2%2\%): meskipun tes spesifisitasnya 90%90\%, populasi sehat yang besar (98%98\%) menghasilkan banyak false positive secara absolut (0.10×0.98=9.8%0.10 \times 0.98 = 9.8\%) yang jauh melebihi true positive (0.95×0.02=1.9%0.95 \times 0.02 = 1.9\%).

Ini adalah base rate fallacy — kesalahan mengabaikan prior rendah saat menginterpretasikan tes diagnostik. Tes ini mungkin berguna sebagai tes skrining (karena negative predictive value-nya sangat tinggi: 99.9%99.9\%), tetapi tidak layak untuk langsung menyesuaikan premi tanpa konfirmasi lebih lanjut.

5. Verification

Tabel kontigensi per 10.000 orang:

DD (200 orang)DcD^c (9.800 orang)Total
++0.95×200=1900.95 \times 200 = 1900.10×9800=9800.10 \times 9800 = 9801.1701.170
-0.05×200=100.05 \times 200 = 100.90×9800=8.8200.90 \times 9800 = 8.8208.8308.830
Total2002009.8009.80010.00010.000

P(D+)=190/11700.1624P(D \mid +) = 190/1170 \approx 0.1624

P(Dc)=8820/88300.9989P(D^c \mid -) = 8820/8830 \approx 0.9989

Exam Tips — Soal B
  • Target waktu: 12–15 menit.
  • Common trap: Menginterpretasikan P(+D)=0.95P(+ \mid D) = 0.95 sebagai P(D+)=0.95P(D \mid +) = 0.95 — ini adalah confusion of the inverse yang paling klasik dalam Teorema Bayes. Probabilitas bersyarat tidak simetris.
  • Insight kritis: Untuk penyakit langka, bahkan tes dengan sensitivitas dan spesifisitas tinggi bisa memiliki positive predictive value yang mengecewakan. Ini adalah implikasi matematis dari prior yang sangat rendah — wajib dipahami untuk soal diagnostik/aktuaria.
  • Shortcut tabel: Untuk soal dengan dua hipotesis (DD dan DcD^c), tabel kontingensi per 1.000 atau 10.000 orang adalah cara paling cepat dan bebas error untuk menghitung Teorema Bayes — semua angka menjadi frekuensi yang intuitif.
  • Shortcut (d): Kenali pola P(D+)P(D \mid +) rendah untuk penyakit langka — semakin kecil P(D)P(D), semakin kecil P(D+)P(D \mid +) meskipun akurasi tes tetap sama. Ini adalah konsekuensi langsung dari bobot prior dalam LOTP.

Soal C — Challenging

Sebuah perusahaan asuransi jiwa memiliki tiga kelas nasabah berdasarkan profil kesehatan: Sehat (SS) 50%, Berisiko Sedang (MM) 30%, dan Berisiko Tinggi (TT) 20%. Probabilitas klaim jiwa dalam 5 tahun:

  • P(KS)=0.01P(K \mid S) = 0.01
  • P(KM)=0.05P(K \mid M) = 0.05
  • P(KT)=0.20P(K \mid T) = 0.20

(a) Hitung P(K)P(K) — probabilitas klaim dari nasabah acak dalam 5 tahun.

(b) Seorang nasabah tidak mengajukan klaim dalam 5 tahun. Hitung probabilitas posterior P(SKc)P(S \mid K^c), P(MKc)P(M \mid K^c), P(TKc)P(T \mid K^c).

(c) Misalkan perusahaan kemudian memperbarui polis nasabah yang tidak klaim di periode pertama untuk periode kedua (5 tahun berikutnya), menggunakan posterior dari periode pertama sebagai prior untuk periode kedua. Dengan asumsi likelihood P(K)P(K \mid \cdot) tetap sama, hitung P(K2)P(K_2) — probabilitas klaim di periode kedua untuk nasabah yang tidak klaim di periode pertama.

(d) Bandingkan P(K2)P(K_2) dengan P(K)P(K). Mengapa P(K2)<P(K)P(K_2) < P(K)? Apa implikasi aktuarialnya?

Solusi Soal C

1. Identifikasi Variabel

  • Prior: P(S)=0.50P(S) = 0.50, P(M)=0.30P(M) = 0.30, P(T)=0.20P(T) = 0.20
  • Likelihood: P(KS)=0.01P(K \mid S) = 0.01, P(KM)=0.05P(K \mid M) = 0.05, P(KT)=0.20P(K \mid T) = 0.20
  • Tiga partisi: {S,M,T}\{S, M, T\}

2. Identifikasi Distribusi / Model

  • LOTP untuk tiga partisi, lalu Teorema Bayes tiga hipotesis
  • Bagian (c): aplikasi Bayes berulang (sequential Bayesian updating)

3. Setup Persamaan

P(K)=P(KS)P(S)+P(KM)P(M)+P(KT)P(T)P(K) = P(K \mid S)P(S) + P(K \mid M)P(M) + P(K \mid T)P(T) P(BjKc)=P(KcBj)P(Bj)P(Kc),Bj{S,M,T}P(B_j \mid K^c) = \frac{P(K^c \mid B_j) \cdot P(B_j)}{P(K^c)}, \quad B_j \in \{S, M, T\}

4. Eksekusi Aljabar

(a) LOTP:

P(K)=0.01×0.50+0.05×0.30+0.20×0.20P(K) = 0.01 \times 0.50 + 0.05 \times 0.30 + 0.20 \times 0.20 =0.005+0.015+0.040=0.060= 0.005 + 0.015 + 0.040 = 0.060

(b) Bayes dengan kondisi KcK^c:

P(Kc)=1P(K)=0.940P(K^c) = 1 - P(K) = 0.940

Hitung P(KcBj)P(Bj)P(K^c \mid B_j) \cdot P(B_j) untuk setiap jj:

Kelas BjB_jP(Bj)P(B_j)P(KcBj)P(K^c \mid B_j)P(KcBj)P(Bj)P(K^c \mid B_j) \cdot P(B_j)P(BjKc)P(B_j \mid K^c)
SS0.500.500.990.990.49500.49500.4950/0.940=0.52660.4950/0.940 = 0.5266
MM0.300.300.950.950.28500.28500.2850/0.940=0.30320.2850/0.940 = 0.3032
TT0.200.200.800.800.16000.16000.1600/0.940=0.17020.1600/0.940 = 0.1702
Total1.001.000.9400\mathbf{0.9400}1.0000\mathbf{1.0000}

Posterior setelah tidak klaim:

P(SKc)0.5266,P(MKc)0.3032,P(TKc)0.1702P(S \mid K^c) \approx 0.5266, \quad P(M \mid K^c) \approx 0.3032, \quad P(T \mid K^c) \approx 0.1702

(c) Gunakan posterior (b) sebagai prior baru untuk periode kedua:

P(K2)=P(KS)P(SKc)+P(KM)P(MKc)+P(KT)P(TKc)P(K_2) = P(K \mid S) \cdot P(S \mid K^c) + P(K \mid M) \cdot P(M \mid K^c) + P(K \mid T) \cdot P(T \mid K^c) =0.01×0.5266+0.05×0.3032+0.20×0.1702= 0.01 \times 0.5266 + 0.05 \times 0.3032 + 0.20 \times 0.1702 =0.005266+0.015160+0.034040=0.0544660.0545= 0.005266 + 0.015160 + 0.034040 = 0.054466 \approx 0.0545

(d) Perbandingan:

P(K2)0.0545<P(K)=0.060P(K_2) \approx 0.0545 < P(K) = 0.060

Mengapa P(K2)<P(K)P(K_2) < P(K)?

Nasabah yang tidak klaim di periode pertama adalah sampel yang secara probabilistik “tersaring” — lebih mungkin berasal dari kelompok risiko rendah (SS). Posterior menunjukkan peningkatan bobot kelompok SS (dari 50%50\% ke 52.7%52.7\%) dan penurunan bobot kelompok TT (dari 20%20\% ke 17%17\%). Karena kelompok SS memiliki probabilitas klaim lebih rendah, rata-rata tertimbang (= P(K2)P(K_2)) menjadi lebih kecil.

Implikasi aktuarial: Nasabah dengan riwayat tidak klaim seharusnya mendapat premi yang lebih rendah di periode berikutnya — ini adalah dasar matematis dari experience rating dan no-claims discount dalam penetapan premi. Teorema Bayes memberikan justifikasi formal mengapa “riwayat bersih” merupakan sinyal risiko yang lebih rendah.

5. Verification

Cek bahwa posterior (b) menjumlah ke 1: 0.5266+0.3032+0.1702=1.00000.5266 + 0.3032 + 0.1702 = 1.0000

Cek bahwa pergeseran logis: P(SKc)>P(S)P(S \mid K^c) > P(S) ✓, P(TKc)<P(T)P(T \mid K^c) < P(T) ✓ — tidak klaim meningkatkan probabilitas kelas rendah dan menurunkan kelas tinggi, konsisten dengan intuisi.

Cek P(K2)P(K_2): harus berada antara P(KS)=0.01P(K \mid S) = 0.01 (minimum jika semua orang kelas SS) dan P(KT)=0.20P(K \mid T) = 0.20 (maksimum jika semua orang kelas TT). 0.05450.0545 berada dalam rentang ini ✓.

Exam Tips — Soal C
  • Target waktu: 18–22 menit.
  • Common trap (b): Mengkondisikan pada KcK^c tapi menggunakan P(KBj)P(K \mid B_j) alih-alih P(KcBj)=1P(KBj)P(K^c \mid B_j) = 1 - P(K \mid B_j) di pembilang. Pastikan likelihood yang digunakan sesuai dengan kondisi yang diobservasi.
  • Common trap (c): Menggunakan prior awal lagi untuk periode kedua, bukan posterior dari (b). Sequential Bayesian updating mengharuskan posterior menjadi prior baru — ini adalah inti dari pendekatan Bayesian.
  • Strategi tabel: Untuk tiga atau lebih hipotesis, selalu gunakan tabel dengan kolom: BjB_j, P(Bj)P(B_j), P(ABj)P(A \mid B_j), P(ABj)×P(Bj)P(A \mid B_j) \times P(B_j), dan P(BjA)P(B_j \mid A). Baris terakhir adalah normalisasi. Ini mencegah hampir semua kesalahan aritmetika.
  • Nilai soal (d): Interpretasi aktuarial dari experience rating sering dinilai tinggi di CF2 — latih kemampuan menjelaskan “mengapa” dari angka yang diperoleh, bukan sekadar “berapa”.

Section 5 — Verifikasi & Sanity Check

Validasi LOTP
  1. Pastikan {Bi}\{B_i\} adalah partisi sejati: iP(Bi)=1\sum_i P(B_i) = 1 dan BiBj=B_i \cap B_j = \emptyset.
  2. Setelah menghitung P(A)P(A) via LOTP, verifikasi P(A)[0,1]P(A) \in [0,1].
  3. Cara alternatif: hitung P(Ac)=iP(AcBi)P(Bi)P(A^c) = \sum_i P(A^c \mid B_i) P(B_i) dan pastikan P(A)+P(Ac)=1P(A) + P(A^c) = 1.
Validasi Posterior Teorema Bayes
  1. jP(BjA)=1\sum_j P(B_j \mid A) = 1 — posterior harus menjumlah ke 1 atas seluruh partisi.
  2. P(BjA)[0,1]P(B_j \mid A) \in [0,1] untuk setiap jj.
  3. Logika arah: jika P(ABj)P(A \mid B_j) tinggi relatif terhadap P(A)P(A), maka P(BjA)>P(Bj)P(B_j \mid A) > P(B_j) (observasi AA meningkatkan posterior BjB_j). Sebaliknya jika P(ABj)P(A \mid B_j) rendah.
  4. Cek ekstrem: jika P(ABj)=0P(A \mid B_j) = 0, maka P(BjA)=0P(B_j \mid A) = 0 — observasi AA mengeliminasi hipotesis BjB_j.
Verifikasi via Pohon Probabilitas

Dari pohon probabilitas: jumlah semua daun harus =1= 1. Nilai P(A)P(A) dari LOTP harus sama dengan jumlah daun yang berakhir di AA. Nilai P(BjA)P(B_j \mid A) = probabilitas daun (Bj,A)(B_j, A) dibagi P(A)P(A).

Metode Alternatif

Metode Tabular (paling direkomendasikan untuk exam CF2):

BjB_jP(Bj)P(B_j)P(ABj)P(A \mid B_j)P(ABj)×P(Bj)P(A \mid B_j) \times P(B_j)P(BjA)P(B_j \mid A)
B1B_1p1p_11\ell_1p11p_1 \ell_1p11/P(A)p_1\ell_1 / P(A)
B2B_2p2p_22\ell_2p22p_2 \ell_2p22/P(A)p_2\ell_2 / P(A)
\vdots\vdots\vdots\vdots\vdots
Total11P(A)P(A)11

P(A)=P(A) = jumlah kolom ke-4; posterior = tiap nilai kolom ke-4 dibagi P(A)P(A).

Metode Proporsional (untuk perbandingan cepat antar posterior):

Karena P(BjA)P(ABj)P(Bj)P(B_j \mid A) \propto P(A \mid B_j) \cdot P(B_j), hitung dulu “skor” proporsional:

sj=P(ABj)P(Bj)s_j = P(A \mid B_j) \cdot P(B_j)

Kemudian normalisasi: P(BjA)=sj/isiP(B_j \mid A) = s_j / \sum_i s_i.

Metode ini berguna ketika hanya perlu membandingkan dua posterior (mana yang lebih besar) tanpa menghitung nilai eksak — sering lebih cepat di soal pilihan ganda.

Section 6 — Visualisasi Mental

Pohon Probabilitas — Visualisasi Paling Kuat:

Bayangkan pohon dengan dua level. Di level pertama, cabang-cabang merepresentasikan partisi {Bi}\{B_i\} — lebar setiap cabang proporsional dengan prior P(Bi)P(B_i). Di level kedua, dari setiap node BiB_i, tumbuh cabang-cabang untuk AA dan AcA^c dengan lebar proporsional terhadap P(ABi)P(A \mid B_i) dan P(AcBi)P(A^c \mid B_i).

Luas setiap daun = panjang jalur = probabilitas jalur itu. LOTP menjumlahkan semua daun berlabel AA dari kiri. Teorema Bayes “membalik” arah pandang: diberikan daun AA, berapa proporsi yang berasal dari cabang BjB_j?

Diagram “Area Berbobot”:

Bayangkan persegi panjang dengan lebar total 1. Bagi secara vertikal sesuai prior: lebar B1=P(B1)B_1 = P(B_1), lebar B2=P(B2)B_2 = P(B_2), dst. Lalu di setiap bagian vertikal, arsir bagian bawah setinggi P(ABi)P(A \mid B_i) — ini adalah area ABiA \cap B_i. LOTP = total area yang diarsir. Bayes = “diberikan kita berada di area yang diarsir, berapa proporsinya yang berasal dari kolom BjB_j?”

Hubungan Visual ↔ Rumus

Lebar kolom ke-jj dalam diagram area berkorespondensi dengan prior:

Lebar kolom j=P(Bj)prior\text{Lebar kolom } j = P(B_j) \longleftrightarrow \text{prior}

Tinggi arsiran di kolom ke-jj berkorespondensi dengan likelihood:

Tinggi arsiran di kolom j=P(ABj)likelihood\text{Tinggi arsiran di kolom } j = P(A \mid B_j) \longleftrightarrow \text{likelihood}

Area arsiran di kolom ke-jj berkorespondensi dengan joint probability:

Area arsiran di kolom j=P(Bj)P(ABj)=P(ABj)joint probability\text{Area arsiran di kolom } j = P(B_j) \cdot P(A \mid B_j) = P(A \cap B_j) \longleftrightarrow \text{joint probability}

Proporsi arsiran dari kolom jj terhadap total arsiran berkorespondensi dengan posterior:

Area arsiran kolom jTotal area arsiran=P(ABj)P(A)=P(BjA)posterior\frac{\text{Area arsiran kolom } j}{\text{Total area arsiran}} = \frac{P(A \cap B_j)}{P(A)} = P(B_j \mid A) \longleftrightarrow \text{posterior}

Section 7 — Jebakan Umum

Kesalahan Parametrisasi

Kesalahan 1 — Membalik Likelihood menjadi Posterior: Menggunakan P(ABj)P(A \mid B_j) langsung sebagai P(BjA)P(B_j \mid A) tanpa koreksi prior dan normalisasi.

Salah: P(D+)=P(+D)=0.95P(D \mid +) = P(+ \mid D) = 0.95

Benar: P(D+)=P(+D)×P(D)/P(+)=0.95×0.02/0.1170.162P(D \mid +) = P(+ \mid D) \times P(D) / P(+) = 0.95 \times 0.02 / 0.117 \approx 0.162

Kesalahan 2 — LOTP tanpa bobot prior: Menghitung P(A)=1kiP(ABi)P(A) = \frac{1}{k}\sum_i P(A \mid B_i) (rata-rata aritmetika biasa) alih-alih iP(ABi)P(Bi)\sum_i P(A \mid B_i) P(B_i) (rata-rata tertimbang). Ini hanya benar jika semua P(Bi)=1/kP(B_i) = 1/k.

Kesalahan Konseptual
  1. {Bi}\{B_i\} tidak diverifikasi sebagai partisi. Menggunakan LOTP tanpa memastikan {Bi}\{B_i\} exhaustive dan saling eksklusif menghasilkan P(A)P(A) yang salah. Jika ada overlap, LOTP akan menghitung beberapa bagian double-counting.
  2. Posterior tidak dinormalisasi. Menghitung P(ABj)P(Bj)P(A \mid B_j) \cdot P(B_j) untuk satu jj dan menyebutnya posterior — ini hanyalah joint probability P(ABj)P(A \cap B_j), bukan posterior. Harus dibagi P(A)P(A).
  3. Sequential Bayes: tidak memperbarui prior. Dalam masalah multi-periode, posterior dari periode pertama harus menjadi prior untuk periode kedua. Menggunakan prior awal terus-menerus mengabaikan informasi yang sudah diperoleh.
  4. Mengira P(BjA)P(B_j \mid A) tidak bergantung pada pilihan partisi lain. Menambah atau menghapus salah satu BiB_i dari partisi akan mengubah P(A)P(A) (LOTP) dan dengan itu mengubah semua posterior, termasuk P(BjA)P(B_j \mid A).
Kesalahan Interpretasi Soal
  • “Probabilitas penyakit diberikan tes positif” \leftrightarrow P(D+)P(D \mid +) — posterior, bukan P(+D)P(+ \mid D) yang adalah sensitivitas.
  • “Probabilitas tes positif diberikan sakit” \leftrightarrow P(+D)P(+ \mid D) — likelihood/sensitivitas, bukan posterior.
  • “Prevalensi” atau “proporsi populasi” \leftrightarrow prior P(Bi)P(B_i) — bukan posterior.
  • “Frekuensi relatif dari kelas BjB_j di antara mereka yang mengalami AA \leftrightarrow posterior P(BjA)P(B_j \mid A) — ini adalah cara verbal yang paling umum untuk mengekspresikan permintaan Teorema Bayes.
Red Flags
  • Soal memberikan P(ABi)P(A \mid B_i) untuk beberapa ii dan menanyakan P(BjA)P(B_j \mid A): Ini adalah Teorema Bayes secara definitif — langsung setup LOTP di penyebut.
  • Kata “prior”, “posterior”, “update”, “revise”: Secara eksplisit menunjukkan konteks Bayesian — gunakan Teorema Bayes.
  • Jumlah posterior tidak sama dengan 1 setelah dihitung: Pasti ada kesalahan di LOTP (penyebut salah) atau pembulatan yang tidak konsisten — periksa ulang tabel.
  • P(A)P(A) yang dihitung via LOTP memberikan hasil >1> 1 atau <0< 0: Prior atau likelihood ada yang salah — mungkin likelihood tidak konsisten (misalnya P(ABi)>1P(A \mid B_i) > 1) atau prior tidak menjumlah ke 1.
  • Soal menyebut “sensitivitas” dan “spesifisitas”: Ini adalah soal tes diagnostik — langsung identifikasi P(+D)P(+ \mid D) = sensitivitas dan P(Dc)P(- \mid D^c) = spesifisitas, dan ingat P(+Dc)=1spesifisitasP(+ \mid D^c) = 1 - \text{spesifisitas}.

Section 8 — Ringkasan Eksekutif

Must-Remember
  1. Hukum Probabilitas Total (LOTP): P(A)=i=1kP(ABi)P(Bi),{Bi} partisi ΩP(A) = \sum_{i=1}^{k} P(A \mid B_i) \cdot P(B_i), \quad \{B_i\} \text{ partisi } \Omega
  2. Teorema Bayes (bentuk operasional): P(BjA)=P(ABj)P(Bj)i=1kP(ABi)P(Bi)P(B_j \mid A) = \frac{P(A \mid B_j) \cdot P(B_j)}{\displaystyle\sum_{i=1}^{k} P(A \mid B_i) \cdot P(B_i)}
  3. Prior ×\times Likelihood \propto Posterior: P(BjA)P(ABj)P(Bj)P(B_j \mid A) \propto P(A \mid B_j) \cdot P(B_j)
  4. Normalisasi posterior: j=1kP(BjA)=1\sum_{j=1}^{k} P(B_j \mid A) = 1
  5. Kasus dua partisi (BB dan BcB^c): P(BA)=P(AB)P(B)P(AB)P(B)+P(ABc)P(Bc)P(B \mid A) = \frac{P(A \mid B)\,P(B)}{P(A \mid B)\,P(B) + P(A \mid B^c)\,P(B^c)}

Kapan Digunakan

  • Trigger keywords: “probabilitas posterior”, “diberikan hasil tes”, “mengingat kejadian terjadi — apa probabilitas kelas/tipe?”, “perbarui probabilitas”, “sensitivitas dan spesifisitas”, “false positive”, “experience rating”, “prevalensi”.
  • Tipe skenario soal:
    • Klasifikasi risiko: diberikan prior per kelas dan likelihood klaim per kelas — hitung posterior kelas setelah observasi klaim.
    • Tes diagnostik: diberikan prevalensi, sensitivitas, spesifisitas — hitung positive/negative predictive value.
    • Sequential updating: posterior periode pertama menjadi prior periode kedua.
    • Hitung P(A)P(A) marginal dari campuran populasi via LOTP sebagai langkah awal.

Kapan TIDAK Boleh Digunakan

  • Jika {Bi}\{B_i\} bukan partisi: LOTP memerlukan partisi sejati — jika BiB_i overlap atau tidak exhaustive, LOTP tidak berlaku tanpa modifikasi.
  • Jika mencari P(ABj)P(A \mid B_j) dan sudah tersedia langsung: Tidak perlu Teorema Bayes — gunakan langsung nilai yang diberikan.
  • Jika variabel acak kontinu: LOTP dan Bayes tetap berlaku tetapi dalam bentuk integral — ini dibahas di 3.3 Distribusi Bersyarat (Conditional Distribution) dan 3.4 Nilai Harapan dan Variansi Bersyarat.
  • Untuk estimasi parameter Bayesian formal (prior distribusi, bukan prior kejadian): beralih ke 4.5 Estimasi Parameter sub-topik Bayesian estimation.

Quick Decision Tree

graph TD
    A["Soal melibatkan probabilitas bersyarat<br>dengan beberapa hipotesis atau kelas"] --> B["Apakah soal memberikan P(A|B_i) untuk<br>beberapa B_i dan menanyakan P(B_j|A)?"]
    B -->|"Ya"| C["Ini adalah Teorema Bayes<br>Identifikasi: Prior P(B_i), Likelihood P(A|B_i)"]
    B -->|"Tidak"| D["Apakah soal meminta P(A) dari<br>campuran beberapa sub-populasi?"]
    D -->|"Ya"| E["Ini adalah LOTP saja<br>P(A) = jumlah P(A|B_i) x P(B_i)"]
    D -->|"Tidak"| F["Gunakan definisi P(A|B) = P(A irisan B)/P(B)<br>dari topik 1.4"]
    C --> G["Buat tabel: B_j, P(B_j), P(A|B_j),<br>P(A|B_j) x P(B_j), P(B_j|A)"]
    G --> H["Hitung kolom 4 = Prior x Likelihood<br>Jumlahkan kolom 4 = P(A) via LOTP"]
    H --> I["Posterior = kolom 4 dibagi P(A)<br>Verifikasi: jumlah posterior = 1"]
    E --> J["Verifikasi: B_i partisi? Jumlah prior = 1?<br>P(A) dalam range 0 ke 1?"]
    I --> K["Apakah soal meminta sequential updating?"]
    K -->|"Ya"| L["Posterior periode 1 = Prior periode 2<br>Ulangi prosedur Bayes"]
    K -->|"Tidak"| M["Selesai — interpretasi perubahan<br>prior ke posterior jika diminta"]
    L --> M

Follow-up Options
  1. “Berikan contoh soal Teorema Bayes dengan tiga hipotesis dalam konteks underwriting asuransi jiwa dengan data mortalitas”
  2. “Jelaskan hubungan 1.6 Teorema Bayes dan Hukum Probabilitas Total dengan 3.4 Nilai Harapan dan Variansi Bersyarat — bagaimana LOTP digeneralisasi menjadi Law of Total Expectation E[X]=E[E[XY]]E[X] = E[E[X \mid Y]]
  3. “Buat flashcard 1-halaman untuk topik ini”

📖 Ref: Hogg-Tanis-Zimm (2015) Bab 1.4; Miller et al. (2014) Bab 2.10–2.11 | 🗓️ 2026-02-21 | #CF2 #Probabilitas #TeoremaBAyes #LOTP #Prior #Posterior #Likelihood #Partisi #ExperienceRating