Teorema Bayes dan Hukum Probabilitas Total
📊 1.6 — Teorema Bayes dan Hukum Probabilitas Total
Ringkasan Cepat›
Topik: Teorema Bayes dan Hukum Probabilitas Total | Bobot: ~15–25% | Difficulty: Medium Ref: Hogg-Tanis-Zimm (2015) Bab 1.4; Miller et al. (2014) Bab 2.10–2.11 | Prereq: 1.1 Eksperimen Acak dan Ruang Sampel, 1.2 Aksioma dan Perhitungan Probabilitas, 1.4 Probabilitas Bersyarat, 1.5 Kejadian Independen
Section 0 — Pemetaan Topik
| Topik CF2 | Sub-topik ID | Skill Diuji | Bobot | Difficulty | Prerequisite | Connected Topics | Referensi |
|---|---|---|---|---|---|---|---|
| Topik 1: Dasar-Dasar Probabilitas | 1.6 | Mendefinisikan partisi dan memverifikasi syaratnya; menerapkan Hukum Total Probabilitas (Law of Total Probability / LOTP) untuk menghitung probabilitas marginal; menerapkan Teorema Bayes untuk memperbarui probabilitas; membedakan probabilitas prior dan posterior; menghitung probabilitas posterior dari data diagnosis atau klasifikasi risiko; menyusun dan membaca pohon probabilitas dua tahap | 15–25% | Medium | 1.1 Eksperimen Acak dan Ruang Sampel, 1.2 Aksioma dan Perhitungan Probabilitas, 1.4 Probabilitas Bersyarat, 1.5 Kejadian Independen | 3.3 Distribusi Bersyarat (Conditional Distribution), 3.4 Nilai Harapan dan Variansi Bersyarat, 4.5 Estimasi Parameter (Bayesian), 3.7 Distribusi Majemuk (Compound Distribution) | Hogg-Tanis-Zimm (2015) Bab 1.4; Miller et al. (2014) Bab 2.10–2.11 |
Section 1 — Intuisi
Bayangkan seorang dokter yang sedang menginterpretasikan hasil tes diagnostik seorang pasien. Tes tersebut menunjukkan hasil positif untuk suatu penyakit langka. Pertanyaannya bukan “seberapa akurat tesnya?” — melainkan “mengingat tes positif ini, seberapa besar kemungkinan pasien benar-benar sakit?” Jawaban atas pertanyaan ini memerlukan dua informasi: (1) seberapa umum penyakit tersebut di populasi (prior probability), dan (2) seberapa baik tes mendeteksi penyakit dan membedakannya dari orang sehat (likelihood). Teorema Bayes adalah mesin matematika yang menggabungkan kedua informasi ini menjadi jawaban yang tepat — disebut posterior probability.
Dalam konteks aktuaria, mekanisme yang sama digunakan setiap hari. Seorang aktuaris mengetahui proporsi nasabah dalam berbagai kelas risiko (prior), dan mengetahui probabilitas klaim dari setiap kelas (likelihood). Ketika seorang nasabah tertentu mengajukan klaim, Teorema Bayes menjawab: “mengingat klaim ini terjadi, seberapa besar kemungkinan nasabah ini termasuk kelas risiko tinggi?” Jawaban ini — probabilitas posterior — digunakan untuk memperbarui penilaian risiko dan menetapkan premi yang lebih akurat. Inilah fondasi dari credibility theory yang menjadi tulang punggung penetapan premi aktuaria modern.
Hukum Probabilitas Total (LOTP) adalah batu loncatan menuju Teorema Bayes. Sebelum bisa memperbarui probabilitas dengan Bayes, kita perlu menghitung probabilitas marginal dari suatu kejadian yang bisa terjadi melalui beberapa jalur berbeda. LOTP menjawab ini dengan menjumlahkan kontribusi dari setiap jalur — seperti menghitung total kemacetan di kota dengan menjumlahkan kemacetan dari tiap ruas jalan. Bersama-sama, LOTP dan Teorema Bayes membentuk sistem yang paling powerful dalam seluruh Topik 1, dan pemahaman mendalam tentang keduanya membuka pintu menuju distribusi bersyarat di Topik 3 dan estimasi Bayesian di Topik 4.
Section 2 — Definisi Formal
Definisi Matematis›
Partisi Ruang Sampel: Koleksi kejadian merupakan partisi dari jika:
Hukum Probabilitas Total (Law of Total Probability — LOTP):
Misalkan adalah partisi dari dengan untuk semua . Maka untuk sembarang kejadian :
Teorema Bayes:
Dengan asumsi yang sama di atas, untuk setiap :
Variabel & Parameter
| Simbol | Makna | Catatan |
|---|---|---|
| Partisi dari | Saling eksklusif, exhaustive, | |
| Probabilitas prior (prior probability) kejadian | Diketahui sebelum mengamati | |
| Likelihood: probabilitas terjadi diberikan | Mendeskripsikan mekanisme pembangkitan | |
| Probabilitas marginal | Dihitung via LOTP: | |
| Probabilitas posterior (posterior probability) | Diperbaharui setelah mengamati |
Rumus Utama
Label: Hukum Probabilitas Total (LOTP) — probabilitas marginal dihitung sebagai rata-rata tertimbang dari likelihood , dengan bobot yang merupakan probabilitas prior setiap partisi.
Label: Teorema Bayes (Bentuk Kompak) — posterior proporsional terhadap likelihood dikali prior; penyebut adalah konstanta normalisasi yang menjamin total posterior .
Label: Teorema Bayes (Bentuk Ekspansi) — penyebut dieksplisitkan via LOTP; ini adalah bentuk yang digunakan dalam perhitungan aktual.
Label: Bentuk Proporsional Bayes — karena penyebut sama untuk semua , posterior proporsional terhadap produk likelihood dan prior; berguna untuk membandingkan posterior relatif antar hipotesis tanpa menghitung .
Label: Normalisasi Posterior — posterior membentuk distribusi probabilitas yang valid atas partisi ; dapat digunakan sebagai sanity check.
Asumsi Eksplisit
- Partisi harus exhaustive dan saling eksklusif: Jika bukan partisi sempurna (ada overlap atau gap), LOTP tidak berlaku secara langsung.
- untuk semua : Partisi dengan tidak berkontribusi ke LOTP dan tidak relevan di Teorema Bayes (probabilitas posterior dari dengan prior nol tetap nol, apapun observasinya).
- : Teorema Bayes membutuhkan di penyebut — mengkondisikan pada kejadian yang mustahil tidak terdefinisi.
- Likelihood diketahui atau dapat diestimasikan: Teorema Bayes “membalik” kondisi dari menjadi ; keakuratan hasilnya bergantung pada keakuratan likelihood yang diinput.
Section 3 — Jembatan Logika
Dari Definisi ke Rumus›
LOTP dan Teorema Bayes keduanya berakar dari satu langkah sederhana: partisi kejadian menggunakan partisi dari . Karena exhaustive, dapat ditulis sebagai: Karena saling eksklusif, juga saling eksklusif. Terapkan Aksioma 3 (1.2 Aksioma dan Perhitungan Probabilitas): Ini adalah LOTP. Teorema Bayes hanyalah definisi probabilitas bersyarat (1.4 Probabilitas Bersyarat) yang dikombinasikan dengan LOTP di penyebutnya: Tidak ada yang baru secara matematis — hanya penggabungan cerdas dari dua alat yang sudah dikuasai.
Support dan Domain›
- LOTP berlaku untuk sembarang partisi — dua partisi berbeda (berbeda jumlah atau definisi ) akan memberikan hasil yang sama (karena adalah nilai tunggal).
- Posterior bergantung pada pilihan partisi — nilai ini bermakna hanya dalam konteks partisi yang dipilih.
- Untuk kasus dua partisi (, yaitu dan ): LOTP menjadi , dan Teorema Bayes menjadi .
Derivasi LOTP dari Aksioma:
Karena adalah partisi dari :
Karena untuk , maka .
Jadi juga saling eksklusif. Terapkan aditivitas (Aksioma 3):
Derivasi Teorema Bayes dari Definisi dan LOTP:
Mnemonic — “Prior Likelihood Evidence”:
Posterior Likelihood Prior — penyebut hanya normalisasi agar total menjadi 1.
Pohon Probabilitas Dua Tahap — Struktur Umum:
Tahap 1 (Prior) Tahap 2 (Likelihood) Daun (Joint)
B_1: P(B_1) ─→ A | B_1: P(A|B_1) ─→ P(B_1)·P(A|B_1) = P(A∩B_1)
└─→ A^c| B_1: P(A^c|B_1) ─→ P(B_1)·P(A^c|B_1)
B_2: P(B_2) ─→ A | B_2: P(A|B_2) ─→ P(B_2)·P(A|B_2) = P(A∩B_2)
└─→ A^c| B_2: P(A^c|B_2) ─→ P(B_2)·P(A^c|B_2)
⋮ ⋮ ⋮
= jumlah daun dengan label =
= daun dibagi
Dilarang›
- Dilarang membalik likelihood menjadi posterior secara langsung: . Ini adalah confusion of the inverse — kesalahan yang sudah disinggung di 1.4 Probabilitas Bersyarat dan secara formal diselesaikan oleh Teorema Bayes. Selalu sertakan prior dan normalisasi .
- Dilarang menggunakan LOTP jika bukan partisi sejati: Jika ada overlap () atau gap (ada bagian tidak tercakup), penjumlahan tidak menghasilkan yang benar. Selalu verifikasi bahwa saling eksklusif dan exhaustive sebelum menggunakan LOTP.
- Dilarang menjumlahkan posterior dari partisi yang berbeda: hanya berlaku untuk satu partisi yang konsisten. Mencampur posterior dari dua set partisi berbeda dan menjumlahkan hasilnya adalah nonsense matematis.
Section 4 — Contoh Soal
Soal A — Fundamental
Sebuah perusahaan asuransi kendaraan mengklasifikasikan pengemudi menjadi dua kelompok: risiko rendah () sebanyak 70% dari portofolio, dan risiko tinggi () sebanyak 30%. Probabilitas klaim dalam setahun: dan .
(a) Hitung — probabilitas sembarang nasabah mengajukan klaim.
(b) Seorang nasabah ternyata mengajukan klaim. Hitung dan .
(c) Verifikasi bahwa .
(d) Interpretasikan perubahan dari prior ke posterior: apakah informasi klaim mengubah penilaian risiko nasabah?
Solusi Soal A›
1. Identifikasi Variabel
- , (prior; partisi karena dan )
- , (likelihood)
- Cari: via LOTP, lalu dan via Bayes
2. Identifikasi Distribusi / Model
- Dua partisi: ; terapkan LOTP lalu Teorema Bayes
- Pohon probabilitas dua tahap: Tahap 1 = profil risiko, Tahap 2 = klaim
3. Setup Persamaan
4. Eksekusi Aljabar
(a) LOTP:
(b) Teorema Bayes:
(c) ✓
(d) Interpretasi perubahan prior → posterior:
| Kelompok | Prior | Posterior (given Klaim) | Perubahan |
|---|---|---|---|
| (Risiko Rendah) | Turun | ||
| (Risiko Tinggi) | Naik |
Informasi bahwa nasabah mengajukan klaim memperbarui penilaian risiko secara signifikan: probabilitas bahwa nasabah termasuk risiko tinggi meningkat dari 30% (prior) menjadi 56.25% (posterior). Ini masuk akal — klaim lebih sering datang dari kelompok risiko tinggi, sehingga observasi klaim “menggeser” keyakinan ke arah risiko tinggi.
5. Verification
Pohon probabilitas — verifikasi semua empat daun menjumlah ke 1:
| Jalur | Probabilitas Daun |
|---|---|
| Total | ✓ |
✓ (jumlah daun dengan label )
Exam Tips — Soal A›
- Target waktu: 8–10 menit.
- Common trap: Menghitung — menjumlahkan likelihood tanpa bobot prior. Ini melanggar LOTP; prior harus menjadi bobot.
- Shortcut: Buat tabel dua kolom: (i) dan (ii) . Jumlah kolom (ii) = . Posterior tiap = nilai di baris (ii) dibagi total (ii). Ini adalah metode tabular yang paling cepat dan aman.
- Interpretasi wajib: Soal CF2 sering meminta interpretasi perubahan prior → posterior. Selalu nyatakan: arah perubahan (naik/turun) dan mengapa perubahan itu masuk akal secara probabilistik.
Soal B — Exam-Typical
Sebuah laboratorium diagnostik mengembangkan tes untuk mendeteksi penyakit langka . Diketahui:
- Prevalensi penyakit di populasi: (2%)
- Sensitivitas tes (true positive rate):
- Spesifisitas tes (true negative rate): , sehingga
Sebuah polis asuransi kesehatan mensyaratkan tes ini, dan hasilnya digunakan untuk penyesuaian premi.
(a) Hitung — probabilitas hasil tes positif dari populasi umum.
(b) Hitung — probabilitas seseorang benar-benar sakit diberikan tes positif (positive predictive value).
(c) Hitung — probabilitas seseorang benar-benar sehat diberikan tes negatif (negative predictive value).
(d) Seorang aktuaris berargumen bahwa tes ini tidak layak digunakan untuk penyesuaian premi karena “bahkan dengan tes positif, mayoritas orang masih sehat.” Verifikasi atau bantah argumen ini secara kuantitatif.
Solusi Soal B›
1. Identifikasi Variabel
- ,
- ,
- ,
- Partisi:
2. Identifikasi Distribusi / Model
- LOTP untuk , lalu Teorema Bayes dua arah: dan
3. Setup Persamaan
4. Eksekusi Aljabar
(a) LOTP:
(b) Positive Predictive Value:
(c)
Negative Predictive Value:
(d) Verifikasi argumen aktuaris:
, artinya 84% orang dengan tes positif sebenarnya sehat.
Argumen aktuaris terbukti benar secara kuantitatif: mayoritas (84%) dari mereka yang tes positif memang sehat. Fenomena ini terjadi karena prevalensi penyakit sangat rendah (): meskipun tes spesifisitasnya , populasi sehat yang besar () menghasilkan banyak false positive secara absolut () yang jauh melebihi true positive ().
Ini adalah base rate fallacy — kesalahan mengabaikan prior rendah saat menginterpretasikan tes diagnostik. Tes ini mungkin berguna sebagai tes skrining (karena negative predictive value-nya sangat tinggi: ), tetapi tidak layak untuk langsung menyesuaikan premi tanpa konfirmasi lebih lanjut.
5. Verification
Tabel kontigensi per 10.000 orang:
| (200 orang) | (9.800 orang) | Total | |
|---|---|---|---|
| Total |
✓
✓
Exam Tips — Soal B›
- Target waktu: 12–15 menit.
- Common trap: Menginterpretasikan sebagai — ini adalah confusion of the inverse yang paling klasik dalam Teorema Bayes. Probabilitas bersyarat tidak simetris.
- Insight kritis: Untuk penyakit langka, bahkan tes dengan sensitivitas dan spesifisitas tinggi bisa memiliki positive predictive value yang mengecewakan. Ini adalah implikasi matematis dari prior yang sangat rendah — wajib dipahami untuk soal diagnostik/aktuaria.
- Shortcut tabel: Untuk soal dengan dua hipotesis ( dan ), tabel kontingensi per 1.000 atau 10.000 orang adalah cara paling cepat dan bebas error untuk menghitung Teorema Bayes — semua angka menjadi frekuensi yang intuitif.
- Shortcut (d): Kenali pola rendah untuk penyakit langka — semakin kecil , semakin kecil meskipun akurasi tes tetap sama. Ini adalah konsekuensi langsung dari bobot prior dalam LOTP.
Soal C — Challenging
Sebuah perusahaan asuransi jiwa memiliki tiga kelas nasabah berdasarkan profil kesehatan: Sehat () 50%, Berisiko Sedang () 30%, dan Berisiko Tinggi () 20%. Probabilitas klaim jiwa dalam 5 tahun:
(a) Hitung — probabilitas klaim dari nasabah acak dalam 5 tahun.
(b) Seorang nasabah tidak mengajukan klaim dalam 5 tahun. Hitung probabilitas posterior , , .
(c) Misalkan perusahaan kemudian memperbarui polis nasabah yang tidak klaim di periode pertama untuk periode kedua (5 tahun berikutnya), menggunakan posterior dari periode pertama sebagai prior untuk periode kedua. Dengan asumsi likelihood tetap sama, hitung — probabilitas klaim di periode kedua untuk nasabah yang tidak klaim di periode pertama.
(d) Bandingkan dengan . Mengapa ? Apa implikasi aktuarialnya?
Solusi Soal C›
1. Identifikasi Variabel
- Prior: , ,
- Likelihood: , ,
- Tiga partisi:
2. Identifikasi Distribusi / Model
- LOTP untuk tiga partisi, lalu Teorema Bayes tiga hipotesis
- Bagian (c): aplikasi Bayes berulang (sequential Bayesian updating)
3. Setup Persamaan
4. Eksekusi Aljabar
(a) LOTP:
(b) Bayes dengan kondisi :
Hitung untuk setiap :
| Kelas | ||||
|---|---|---|---|---|
| Total | — | ✓ | ✓ |
Posterior setelah tidak klaim:
(c) Gunakan posterior (b) sebagai prior baru untuk periode kedua:
(d) Perbandingan:
Mengapa ?
Nasabah yang tidak klaim di periode pertama adalah sampel yang secara probabilistik “tersaring” — lebih mungkin berasal dari kelompok risiko rendah (). Posterior menunjukkan peningkatan bobot kelompok (dari ke ) dan penurunan bobot kelompok (dari ke ). Karena kelompok memiliki probabilitas klaim lebih rendah, rata-rata tertimbang (= ) menjadi lebih kecil.
Implikasi aktuarial: Nasabah dengan riwayat tidak klaim seharusnya mendapat premi yang lebih rendah di periode berikutnya — ini adalah dasar matematis dari experience rating dan no-claims discount dalam penetapan premi. Teorema Bayes memberikan justifikasi formal mengapa “riwayat bersih” merupakan sinyal risiko yang lebih rendah.
5. Verification
Cek bahwa posterior (b) menjumlah ke 1: ✓
Cek bahwa pergeseran logis: ✓, ✓ — tidak klaim meningkatkan probabilitas kelas rendah dan menurunkan kelas tinggi, konsisten dengan intuisi.
Cek : harus berada antara (minimum jika semua orang kelas ) dan (maksimum jika semua orang kelas ). berada dalam rentang ini ✓.
Exam Tips — Soal C›
- Target waktu: 18–22 menit.
- Common trap (b): Mengkondisikan pada tapi menggunakan alih-alih di pembilang. Pastikan likelihood yang digunakan sesuai dengan kondisi yang diobservasi.
- Common trap (c): Menggunakan prior awal lagi untuk periode kedua, bukan posterior dari (b). Sequential Bayesian updating mengharuskan posterior menjadi prior baru — ini adalah inti dari pendekatan Bayesian.
- Strategi tabel: Untuk tiga atau lebih hipotesis, selalu gunakan tabel dengan kolom: , , , , dan . Baris terakhir adalah normalisasi. Ini mencegah hampir semua kesalahan aritmetika.
- Nilai soal (d): Interpretasi aktuarial dari experience rating sering dinilai tinggi di CF2 — latih kemampuan menjelaskan “mengapa” dari angka yang diperoleh, bukan sekadar “berapa”.
Section 5 — Verifikasi & Sanity Check
Validasi LOTP›
- Pastikan adalah partisi sejati: dan .
- Setelah menghitung via LOTP, verifikasi .
- Cara alternatif: hitung dan pastikan .
Validasi Posterior Teorema Bayes›
- — posterior harus menjumlah ke 1 atas seluruh partisi.
- untuk setiap .
- Logika arah: jika tinggi relatif terhadap , maka (observasi meningkatkan posterior ). Sebaliknya jika rendah.
- Cek ekstrem: jika , maka — observasi mengeliminasi hipotesis .
Verifikasi via Pohon Probabilitas›
Dari pohon probabilitas: jumlah semua daun harus . Nilai dari LOTP harus sama dengan jumlah daun yang berakhir di . Nilai = probabilitas daun dibagi .
Metode Alternatif
Metode Tabular (paling direkomendasikan untuk exam CF2):
| Total | — |
jumlah kolom ke-4; posterior = tiap nilai kolom ke-4 dibagi .
Metode Proporsional (untuk perbandingan cepat antar posterior):
Karena , hitung dulu “skor” proporsional:
Kemudian normalisasi: .
Metode ini berguna ketika hanya perlu membandingkan dua posterior (mana yang lebih besar) tanpa menghitung nilai eksak — sering lebih cepat di soal pilihan ganda.
Section 6 — Visualisasi Mental
Pohon Probabilitas — Visualisasi Paling Kuat:
Bayangkan pohon dengan dua level. Di level pertama, cabang-cabang merepresentasikan partisi — lebar setiap cabang proporsional dengan prior . Di level kedua, dari setiap node , tumbuh cabang-cabang untuk dan dengan lebar proporsional terhadap dan .
Luas setiap daun = panjang jalur = probabilitas jalur itu. LOTP menjumlahkan semua daun berlabel dari kiri. Teorema Bayes “membalik” arah pandang: diberikan daun , berapa proporsi yang berasal dari cabang ?
Diagram “Area Berbobot”:
Bayangkan persegi panjang dengan lebar total 1. Bagi secara vertikal sesuai prior: lebar , lebar , dst. Lalu di setiap bagian vertikal, arsir bagian bawah setinggi — ini adalah area . LOTP = total area yang diarsir. Bayes = “diberikan kita berada di area yang diarsir, berapa proporsinya yang berasal dari kolom ?”
Hubungan Visual ↔ Rumus
Lebar kolom ke- dalam diagram area berkorespondensi dengan prior:
Tinggi arsiran di kolom ke- berkorespondensi dengan likelihood:
Area arsiran di kolom ke- berkorespondensi dengan joint probability:
Proporsi arsiran dari kolom terhadap total arsiran berkorespondensi dengan posterior:
Section 7 — Jebakan Umum
Kesalahan Parametrisasi›
Kesalahan 1 — Membalik Likelihood menjadi Posterior: Menggunakan langsung sebagai tanpa koreksi prior dan normalisasi.
Salah:
Benar:
Kesalahan 2 — LOTP tanpa bobot prior: Menghitung (rata-rata aritmetika biasa) alih-alih (rata-rata tertimbang). Ini hanya benar jika semua .
Kesalahan Konseptual›
- tidak diverifikasi sebagai partisi. Menggunakan LOTP tanpa memastikan exhaustive dan saling eksklusif menghasilkan yang salah. Jika ada overlap, LOTP akan menghitung beberapa bagian double-counting.
- Posterior tidak dinormalisasi. Menghitung untuk satu dan menyebutnya posterior — ini hanyalah joint probability , bukan posterior. Harus dibagi .
- Sequential Bayes: tidak memperbarui prior. Dalam masalah multi-periode, posterior dari periode pertama harus menjadi prior untuk periode kedua. Menggunakan prior awal terus-menerus mengabaikan informasi yang sudah diperoleh.
- Mengira tidak bergantung pada pilihan partisi lain. Menambah atau menghapus salah satu dari partisi akan mengubah (LOTP) dan dengan itu mengubah semua posterior, termasuk .
Kesalahan Interpretasi Soal›
- “Probabilitas penyakit diberikan tes positif” — posterior, bukan yang adalah sensitivitas.
- “Probabilitas tes positif diberikan sakit” — likelihood/sensitivitas, bukan posterior.
- “Prevalensi” atau “proporsi populasi” prior — bukan posterior.
- “Frekuensi relatif dari kelas di antara mereka yang mengalami ” posterior — ini adalah cara verbal yang paling umum untuk mengekspresikan permintaan Teorema Bayes.
Red Flags›
- Soal memberikan untuk beberapa dan menanyakan : Ini adalah Teorema Bayes secara definitif — langsung setup LOTP di penyebut.
- Kata “prior”, “posterior”, “update”, “revise”: Secara eksplisit menunjukkan konteks Bayesian — gunakan Teorema Bayes.
- Jumlah posterior tidak sama dengan 1 setelah dihitung: Pasti ada kesalahan di LOTP (penyebut salah) atau pembulatan yang tidak konsisten — periksa ulang tabel.
- yang dihitung via LOTP memberikan hasil atau : Prior atau likelihood ada yang salah — mungkin likelihood tidak konsisten (misalnya ) atau prior tidak menjumlah ke 1.
- Soal menyebut “sensitivitas” dan “spesifisitas”: Ini adalah soal tes diagnostik — langsung identifikasi = sensitivitas dan = spesifisitas, dan ingat .
Section 8 — Ringkasan Eksekutif
Must-Remember›
- Hukum Probabilitas Total (LOTP):
- Teorema Bayes (bentuk operasional):
- Prior Likelihood Posterior:
- Normalisasi posterior:
- Kasus dua partisi ( dan ):
Kapan Digunakan
- Trigger keywords: “probabilitas posterior”, “diberikan hasil tes”, “mengingat kejadian terjadi — apa probabilitas kelas/tipe?”, “perbarui probabilitas”, “sensitivitas dan spesifisitas”, “false positive”, “experience rating”, “prevalensi”.
- Tipe skenario soal:
- Klasifikasi risiko: diberikan prior per kelas dan likelihood klaim per kelas — hitung posterior kelas setelah observasi klaim.
- Tes diagnostik: diberikan prevalensi, sensitivitas, spesifisitas — hitung positive/negative predictive value.
- Sequential updating: posterior periode pertama menjadi prior periode kedua.
- Hitung marginal dari campuran populasi via LOTP sebagai langkah awal.
Kapan TIDAK Boleh Digunakan
- Jika bukan partisi: LOTP memerlukan partisi sejati — jika overlap atau tidak exhaustive, LOTP tidak berlaku tanpa modifikasi.
- Jika mencari dan sudah tersedia langsung: Tidak perlu Teorema Bayes — gunakan langsung nilai yang diberikan.
- Jika variabel acak kontinu: LOTP dan Bayes tetap berlaku tetapi dalam bentuk integral — ini dibahas di 3.3 Distribusi Bersyarat (Conditional Distribution) dan 3.4 Nilai Harapan dan Variansi Bersyarat.
- Untuk estimasi parameter Bayesian formal (prior distribusi, bukan prior kejadian): beralih ke 4.5 Estimasi Parameter sub-topik Bayesian estimation.
Quick Decision Tree
graph TD
A["Soal melibatkan probabilitas bersyarat<br>dengan beberapa hipotesis atau kelas"] --> B["Apakah soal memberikan P(A|B_i) untuk<br>beberapa B_i dan menanyakan P(B_j|A)?"]
B -->|"Ya"| C["Ini adalah Teorema Bayes<br>Identifikasi: Prior P(B_i), Likelihood P(A|B_i)"]
B -->|"Tidak"| D["Apakah soal meminta P(A) dari<br>campuran beberapa sub-populasi?"]
D -->|"Ya"| E["Ini adalah LOTP saja<br>P(A) = jumlah P(A|B_i) x P(B_i)"]
D -->|"Tidak"| F["Gunakan definisi P(A|B) = P(A irisan B)/P(B)<br>dari topik 1.4"]
C --> G["Buat tabel: B_j, P(B_j), P(A|B_j),<br>P(A|B_j) x P(B_j), P(B_j|A)"]
G --> H["Hitung kolom 4 = Prior x Likelihood<br>Jumlahkan kolom 4 = P(A) via LOTP"]
H --> I["Posterior = kolom 4 dibagi P(A)<br>Verifikasi: jumlah posterior = 1"]
E --> J["Verifikasi: B_i partisi? Jumlah prior = 1?<br>P(A) dalam range 0 ke 1?"]
I --> K["Apakah soal meminta sequential updating?"]
K -->|"Ya"| L["Posterior periode 1 = Prior periode 2<br>Ulangi prosedur Bayes"]
K -->|"Tidak"| M["Selesai — interpretasi perubahan<br>prior ke posterior jika diminta"]
L --> M
Follow-up Options›
- “Berikan contoh soal Teorema Bayes dengan tiga hipotesis dalam konteks underwriting asuransi jiwa dengan data mortalitas”
- “Jelaskan hubungan 1.6 Teorema Bayes dan Hukum Probabilitas Total dengan 3.4 Nilai Harapan dan Variansi Bersyarat — bagaimana LOTP digeneralisasi menjadi Law of Total Expectation ”
- “Buat flashcard 1-halaman untuk topik ini”
📖 Ref: Hogg-Tanis-Zimm (2015) Bab 1.4; Miller et al. (2014) Bab 2.10–2.11 | 🗓️ 2026-02-21 | #CF2 #Probabilitas #TeoremaBAyes #LOTP #Prior #Posterior #Likelihood #Partisi #ExperienceRating