PAI · AAMAI · 2026
Aktuaria
Indonesia
CF2 · Materi 4.4

Hukum Bilangan Besar (LLN)

2026-02-21 Medium Bobot: 20–30% Hogg-McKean-Craig (2019) Bab 1.7, 5.1; Hogg-Tanis-Zimmerman (2015) Bab 5.1–5.2; Miller et al. (2014) Bab 7.1–7.3
CF2ProbabilitasStatistikaInferensiHukumBilanganBesarLLNKonvergensiKetidaksamaanMarkovKetidaksamaanChebyshevKonsistensi

📊 4.4 — Hukum Bilangan Besar (LLN)

Ringkasan Cepat

Topik: Hukum Bilangan Besar (LLN) | Bobot: ~20–30% | Difficulty: Medium Ref: Hogg-McKean-Craig (2019) Bab 1.7, 5.1; Hogg-Tanis-Zimm (2015) Bab 5.1–5.2; Miller et al. (2014) Bab 7.1–7.3 | Prereq: 4.1 Penarikan Sampel Acak, 2.1 Variabel Acak Diskrit, 2.2 Variabel Acak Kontinu

Section 0 — Pemetaan Topik

Topik CF2Sub-topik IDSkill DiujiBobotDifficultyPrerequisiteConnected TopicsReferensi
Topik 4: Inferensi Statistik4.4Menyatakan dan membedakan WLLN dan SLLN; membuktikan WLLN menggunakan Ketidaksamaan Chebyshev; menerapkan Ketidaksamaan Markov dan Chebyshev untuk batas probabilitas; menginterpretasikan konvergensi dalam probabilitas vs konvergensi hampir pasti; menghubungkan LLN dengan konsistensi estimator; menentukan ukuran sampel minimum dari Ketidaksamaan Chebyshev20–30%Medium4.1 Penarikan Sampel Acak, 2.1 Variabel Acak Diskrit, 2.2 Variabel Acak Kontinu, 4.6 Sifat-Sifat Estimator4.3 Teorema Limit Pusat (CLT), 4.5 Estimasi Parameter, 4.6 Sifat-Sifat Estimator, 4.7 Selang KepercayaanHogg-McKean-Craig (2019) Bab 1.7, 5.1; Hogg-Tanis-Zimm (2015) Bab 5.1–5.2; Miller et al. (2014) Bab 7.1–7.3

Section 1 — Intuisi

Hukum Bilangan Besar adalah formalisasi matematis dari sesuatu yang secara intuitif kita percayai sejak lama: semakin banyak data yang kita kumpulkan, semakin dekat rata-rata sampel mendekati nilai yang sesungguhnya. Bayangkan seorang aktuaris yang sedang mengestimasi rata-rata klaim tahunan untuk lini bisnis asuransi kesehatan baru. Dengan hanya 10 data klaim, rata-rata sampel bisa sangat berfluktuasi dan menyesatkan. Dengan 1.000 data, rata-rata sampel sudah jauh lebih stabil. Dengan 100.000 data, rata-rata sampel hampir pasti sangat dekat dengan rata-rata populasi yang sebenarnya. Hukum Bilangan Besar menjamin secara matematis bahwa fenomena “semakin banyak data semakin baik” ini bukan sekadar harapan, melainkan sebuah kepastian probabilistik.

Fondasi dari LLN adalah dua ketidaksamaan probabilistik yang sederhana namun sangat kuat. Ketidaksamaan Markov mengatakan: untuk variabel acak non-negatif XX, probabilitas bahwa XX melampaui nilai aa dibatasi oleh E[X]/aE[X]/a. Ini adalah batas yang sangat umum — tidak memerlukan asumsi apapun selain non-negativitas dan existensi mean. Ketidaksamaan Chebyshev memperkuat ini: untuk variabel acak dengan mean μ\mu dan variansi σ2\sigma^2, probabilitas bahwa nilai berjarak lebih dari ε\varepsilon dari mean dibatasi oleh σ2/ε2\sigma^2/\varepsilon^2. Kedua ketidaksamaan ini memberikan batas atas probabilitas untuk peristiwa ekstrem, tanpa perlu mengetahui distribusi tepatnya.

LLN sendiri hadir dalam dua versi. Hukum Lemah Bilangan Besar (WLLN) menyatakan bahwa rata-rata sampel Xˉn\bar{X}_n konvergen dalam probabilitas ke μ\mu — artinya untuk setiap toleransi ε>0\varepsilon > 0, probabilitas bahwa Xˉnμ>ε|\bar{X}_n - \mu| > \varepsilon mendekati nol ketika nn \to \infty. Hukum Kuat Bilangan Besar (SLLN) menyatakan sesuatu yang lebih kuat: Xˉn\bar{X}_n konvergen hampir pasti ke μ\mu — artinya dengan probabilitas 1, setiap realisasi dari barisan Xˉn\bar{X}_n akhirnya dan selamanya berada dekat μ\mu. Dalam praktek aktuaria, LLN adalah justifikasi matematika mengapa penggunaan frekuensi relatif historis (misalnya angka kematian, frekuensi kecelakaan) sebagai estimator probabilitas adalah valid ketika ukuran portofolio cukup besar.

Section 2 — Definisi Formal

Definisi Matematis

Ketidaksamaan Markov:

Misalkan XX adalah variabel acak non-negatif dengan E[X]<E[X] < \infty. Maka untuk setiap a>0a > 0:

P(Xa)E[X]aP(X \geq a) \leq \frac{E[X]}{a}

Ketidaksamaan Chebyshev:

Misalkan XX adalah variabel acak dengan E[X]=μE[X] = \mu dan Var(X)=σ2<\text{Var}(X) = \sigma^2 < \infty. Maka untuk setiap ε>0\varepsilon > 0:

P(Xμε)σ2ε2P(|X - \mu| \geq \varepsilon) \leq \frac{\sigma^2}{\varepsilon^2}

Ekuivalen: P(Xμ<ε)1σ2ε2P(|X - \mu| < \varepsilon) \geq 1 - \dfrac{\sigma^2}{\varepsilon^2}

Hukum Lemah Bilangan Besar (WLLN):

Misalkan X1,X2,X_1, X_2, \ldots adalah barisan variabel acak i.i.d. dengan E[Xi]=μE[X_i] = \mu dan Var(Xi)=σ2<\text{Var}(X_i) = \sigma^2 < \infty. Definisikan Xˉn=1ni=1nXi\bar{X}_n = \frac{1}{n}\sum_{i=1}^n X_i. Maka untuk setiap ε>0\varepsilon > 0:

limnP ⁣(Xˉnμε)=0\lim_{n \to \infty} P\!\left(|\bar{X}_n - \mu| \geq \varepsilon\right) = 0

Dinotasikan: XˉnPμ\bar{X}_n \xrightarrow{P} \mu (konvergen dalam probabilitas ke μ\mu).

Hukum Kuat Bilangan Besar (SLLN):

Dengan asumsi yang sama (atau lebih lemah: cukup E[Xi]<E[|X_i|] < \infty):

P ⁣(limnXˉn=μ)=1P\!\left(\lim_{n \to \infty} \bar{X}_n = \mu\right) = 1

Dinotasikan: Xˉna.s.μ\bar{X}_n \xrightarrow{\text{a.s.}} \mu (konvergen hampir pasti / almost surely ke μ\mu).

Variabel & Parameter

SimbolMaknaCatatan
X1,X2,,XnX_1, X_2, \ldots, X_nSampel acak i.i.d. berukuran nnIdentik dan saling independen
Xˉn=1ni=1nXi\bar{X}_n = \frac{1}{n}\sum_{i=1}^n X_iRata-rata sampelVariabel acak yang bergantung pada nn
μ=E[Xi]\mu = E[X_i]Mean populasi (parameter target)Nilai yang ingin didekati oleh Xˉn\bar{X}_n
σ2=Var(Xi)\sigma^2 = \text{Var}(X_i)Variansi populasiDiperlukan untuk WLLN via Chebyshev; kondisi lebih lemah untuk SLLN
ε>0\varepsilon > 0Toleransi deviasi (ambang batas)Seberapa dekat Xˉn\bar{X}_n harus ke μ\mu
a>0a > 0Ambang batas dalam Ketidaksamaan MarkovHarus positif; semakin besar aa, batas semakin kecil
P\xrightarrow{P}Konvergen dalam probabilitasNotasi WLLN; lebih lemah dari konvergensi a.s.
a.s.\xrightarrow{\text{a.s.}}Konvergen hampir pasti (almost surely)Notasi SLLN; lebih kuat dari konvergensi dalam probabilitas
E[Xˉn]E[\bar{X}_n]Mean dari rata-rata sampel=μ= \mu (rata-rata sampel adalah estimator tak-bias)
Var(Xˉn)\text{Var}(\bar{X}_n)Variansi dari rata-rata sampel=σ2/n= \sigma^2/n (mengecil ke 0 saat nn \to \infty)

Rumus Utama

P(Xa)E[X]a,X0,  a>0P(X \geq a) \leq \frac{E[X]}{a}, \quad X \geq 0,\; a > 0

Label: Ketidaksamaan Markov — batas atas paling umum untuk probabilitas ekor; hanya memerlukan non-negativitas dan existensi mean; batas ini seringkali tidak ketat tetapi berlaku untuk distribusi apapun.

P(Xμε)σ2ε2,ε>0P(|X - \mu| \geq \varepsilon) \leq \frac{\sigma^2}{\varepsilon^2}, \quad \varepsilon > 0

Label: Ketidaksamaan Chebyshev — diturunkan dari Ketidaksamaan Markov dengan Y=(Xμ)2Y = (X-\mu)^2 dan a=ε2a = \varepsilon^2; memerlukan existensi variansi; berlaku untuk distribusi apapun.

P ⁣(Xˉnμε)σ2nε2P\!\left(|\bar{X}_n - \mu| \geq \varepsilon\right) \leq \frac{\sigma^2}{n\varepsilon^2}

Label: Chebyshev Diterapkan pada Xˉn\bar{X}_n — langkah kunci dalam bukti WLLN; menggunakan Var(Xˉn)=σ2/n\text{Var}(\bar{X}_n) = \sigma^2/n; batas ini 0\to 0 saat nn \to \infty untuk setiap ε>0\varepsilon > 0 tetap.

XˉnPμ(WLLN)\bar{X}_n \xrightarrow{P} \mu \quad \text{(WLLN)}

Label: Hukum Lemah Bilangan Besar — konsekuensi langsung dari batas Chebyshev di atas; cukup memerlukan σ2<\sigma^2 < \infty (dan E[X]=μE[X] = \mu).

Xˉna.s.μ(SLLN)\bar{X}_n \xrightarrow{\text{a.s.}} \mu \quad \text{(SLLN)}

Label: Hukum Kuat Bilangan Besar — pernyataan yang lebih kuat; hanya memerlukan E[Xi]<E[|X_i|] < \infty; SLLN mengimplikasikan WLLN (tetapi tidak sebaliknya).

nσ2ε2δn \geq \frac{\sigma^2}{\varepsilon^2 \delta}

Label: Ukuran Sampel Minimum dari Chebyshev — untuk menjamin P(Xˉnμε)δP(|\bar{X}_n - \mu| \geq \varepsilon) \leq \delta; diperoleh dari σ2/(nε2)δ\sigma^2/(n\varepsilon^2) \leq \delta; batas konservatif (overestimate nn yang diperlukan).

Asumsi Eksplisit

  • WLLN: XiX_i i.i.d. dengan E[Xi]=μE[X_i] = \mu dan Var(Xi)=σ2<\text{Var}(X_i) = \sigma^2 < \infty. Asumsi variansi berhingga diperlukan untuk bukti via Chebyshev. (Ada versi WLLN tanpa asumsi variansi berhingga, menggunakan fungsi karakteristik, tetapi di luar CF2.)
  • SLLN (Kolmogorov): XiX_i i.i.d. dengan E[Xi]<E[|X_i|] < \infty. Kondisi ini lebih lemah dari WLLN — hanya memerlukan mean berhingga, bukan variansi berhingga.
  • Ketidaksamaan Markov: X0X \geq 0 hampir pasti (non-negatif), dan E[X]<E[X] < \infty.
  • Ketidaksamaan Chebyshev: E[X]=μE[X] = \mu dan Var(X)=σ2<\text{Var}(X) = \sigma^2 < \infty; tidak diperlukan asumsi bentuk distribusi tertentu.

Section 3 — Jembatan Logika

Dari Definisi ke Rumus

Rantai logika dari prinsip dasar ke WLLN sangat elegan dan penting untuk dipahami sepenuhnya:

Langkah 1 — Hitung momen Xˉn\bar{X}_n: E[Xˉn]=μ,Var(Xˉn)=σ2nE[\bar{X}_n] = \mu, \qquad \text{Var}(\bar{X}_n) = \frac{\sigma^2}{n} Mean sama dengan μ\mu (tak-bias), dan variansi mengecil ke 0 saat nn \to \infty.

Langkah 2 — Terapkan Chebyshev pada Xˉn\bar{X}_n: P ⁣(Xˉnμε)Var(Xˉn)ε2=σ2nε2P\!\left(|\bar{X}_n - \mu| \geq \varepsilon\right) \leq \frac{\text{Var}(\bar{X}_n)}{\varepsilon^2} = \frac{\sigma^2}{n\varepsilon^2}

Langkah 3 — Ambil limit nn \to \infty: 0P ⁣(Xˉnμε)σ2nε2n00 \leq P\!\left(|\bar{X}_n - \mu| \geq \varepsilon\right) \leq \frac{\sigma^2}{n\varepsilon^2} \xrightarrow{n\to\infty} 0

Oleh Squeeze Theorem: limnP(Xˉnμε)=0\lim_{n\to\infty} P(|\bar{X}_n - \mu| \geq \varepsilon) = 0 untuk setiap ε>0\varepsilon > 0. \blacksquare

Keindahan bukti ini: tidak perlu mengetahui distribusi XiX_i — cukup dua momen pertama. Ini membuat LLN berlaku sangat umum.

Perbedaan Konvergensi Dalam Probabilitas vs Hampir Pasti

Konvergensi Dalam Probabilitas (P\xrightarrow{P}) — WLLN: Untuk setiap ε>0\varepsilon > 0: P(Xˉnμ>ε)0P(|\bar{X}_n - \mu| > \varepsilon) \to 0. Interpretasi: untuk nn besar, sangat mungkin bahwa Xˉn\bar{X}_n dekat dengan μ\mu. Namun, masih ada kemungkinan (yang mengecil) bahwa suatu sampel tertentu menghasilkan Xˉn\bar{X}_n jauh dari μ\mu.

Konvergensi Hampir Pasti (a.s.\xrightarrow{\text{a.s.}}) — SLLN: P(limnXˉn=μ)=1P(\lim_{n\to\infty} \bar{X}_n = \mu) = 1. Interpretasi: hampir setiap realisasi barisan (Xˉ1,Xˉ2,)(\bar{X}_1, \bar{X}_2, \ldots) akhirnya dan selamanya mendekati μ\mu. Ini adalah pernyataan tentang jalur sampel (path-wise), bukan hanya distribusi per nilai nn.

Analogi: WLLN seperti menjamin bahwa pada hari tertentu, sangat mungkin cuaca mendekati rata-rata musiman. SLLN seperti menjamin bahwa sepanjang hidupmu, rata-rata cuaca harian pasti mendekati rata-rata iklim — tidak hanya pada hari tertentu.

Hierarki: SLLN     \implies WLLN (konvergensi a.s. lebih kuat dan mengimplikasikan konvergensi dalam probabilitas), tetapi tidak sebaliknya.

Derivasi Ketidaksamaan Chebyshev dari Ketidaksamaan Markov:

Definisikan Y=(Xμ)20Y = (X - \mu)^2 \geq 0. Terapkan Ketidaksamaan Markov pada YY dengan a=ε2a = \varepsilon^2:

P(Yε2)E[Y]ε2P(Y \geq \varepsilon^2) \leq \frac{E[Y]}{\varepsilon^2}

Perhatikan bahwa {Yε2}={(Xμ)2ε2}={Xμε}\{Y \geq \varepsilon^2\} = \{(X-\mu)^2 \geq \varepsilon^2\} = \{|X - \mu| \geq \varepsilon\} dan E[Y]=E[(Xμ)2]=σ2E[Y] = E[(X-\mu)^2] = \sigma^2. Substitusi:

P(Xμε)σ2ε2P(|X - \mu| \geq \varepsilon) \leq \frac{\sigma^2}{\varepsilon^2} \qquad \blacksquare

Derivasi ini menunjukkan bahwa Chebyshev adalah kasus khusus Markov dengan pilihan cerdas Y=(Xμ)2Y = (X-\mu)^2 — sehingga Markov lebih fundamental, dan Chebyshev adalah aplikasinya.

Mengapa Var(Xˉn)=σ2/n\text{Var}(\bar{X}_n) = \sigma^2/n?

Var(Xˉn)=Var ⁣(1ni=1nXi)=1n2i=1nVar(Xi)=1n2nσ2=σ2n\text{Var}(\bar{X}_n) = \text{Var}\!\left(\frac{1}{n}\sum_{i=1}^n X_i\right) = \frac{1}{n^2}\sum_{i=1}^n \text{Var}(X_i) = \frac{1}{n^2} \cdot n\sigma^2 = \frac{\sigma^2}{n}

Langkah kedua menggunakan independensi XiX_i (semua kovariansi silang = 0). Fakta bahwa Var(Xˉn)0\text{Var}(\bar{X}_n) \to 0 saat nn \to \infty adalah inti mekanis mengapa LLN bekerja: rata-rata sampel menjadi semakin tidak tersebar di sekitar μ\mu.

Dilarang
  1. Dilarang menyimpulkan dari WLLN bahwa Xˉn=μ\bar{X}_n = \mu untuk nn besar: LLN menyatakan konvergensi probabilistik, bukan konvergensi deterministik. Untuk setiap nn berhingga, Xˉn\bar{X}_n masih merupakan variabel acak yang bisa berbeda dari μ\mu. Yang mengecil adalah probabilitas deviasi besar, bukan deviasi itu sendiri.
  2. Dilarang menggunakan Ketidaksamaan Markov untuk variabel acak yang bisa bernilai negatif: Markov mensyaratkan X0X \geq 0 hampir pasti. Untuk variabel umum yang bisa negatif, terapkan Markov pada X|X| atau gunakan Chebyshev secara langsung.
  3. Dilarang mengira WLLN dan SLLN setara: SLLN adalah pernyataan yang lebih kuat. SLLN \Rightarrow WLLN, tetapi ada barisan yang memenuhi WLLN tetapi bukan SLLN (contoh-contoh ini di luar CF2, tetapi perbedaan konseptualnya sering diuji).

Section 4 — Contoh Soal

Soal A — Fundamental

Misalkan XX adalah variabel acak dengan E[X]=10E[X] = 10 dan Var(X)=25\text{Var}(X) = 25.

(a) Gunakan Ketidaksamaan Chebyshev untuk menentukan batas atas P(X108)P(|X - 10| \geq 8). (b) Gunakan Ketidaksamaan Markov untuk menentukan batas atas P(X20)P(X \geq 20), dengan asumsi X0X \geq 0. (c) Misalkan X1,X2,X_1, X_2, \ldots adalah sampel i.i.d. dari distribusi yang sama. Tentukan ukuran sampel minimum nn agar P(Xˉn102)0.05P(|\bar{X}_n - 10| \geq 2) \leq 0.05 dijamin oleh Ketidaksamaan Chebyshev.

Solusi Soal A

1. Identifikasi Variabel

  • μ=E[X]=10\mu = E[X] = 10, σ2=Var(X)=25\sigma^2 = \text{Var}(X) = 25, σ=5\sigma = 5.
  • Bagian (a): ε=8\varepsilon = 8. Bagian (b): a=20a = 20, X0X \geq 0. Bagian (c): ε=2\varepsilon = 2, δ=0.05\delta = 0.05.

2. Identifikasi Distribusi / Model

  • Tidak ada distribusi spesifik — gunakan ketidaksamaan umum Chebyshev dan Markov.
  • Ini adalah penerapan langsung dari batas probabilistik.

3. Setup Persamaan

(a) P(Xμε)σ2/ε2P(|X - \mu| \geq \varepsilon) \leq \sigma^2/\varepsilon^2

(b) P(Xa)E[X]/aP(X \geq a) \leq E[X]/a

(c) σ2/(nε2)δ    nσ2/(ε2δ)\sigma^2/(n\varepsilon^2) \leq \delta \implies n \geq \sigma^2/(\varepsilon^2\delta)

4. Eksekusi Aljabar

(a) Ketidaksamaan Chebyshev: P(X108)σ2ε2=25640.3906P(|X - 10| \geq 8) \leq \frac{\sigma^2}{\varepsilon^2} = \frac{25}{64} \approx 0.3906

(b) Ketidaksamaan Markov: P(X20)E[X]20=1020=12=0.5P(X \geq 20) \leq \frac{E[X]}{20} = \frac{10}{20} = \frac{1}{2} = 0.5

(c) Ukuran Sampel Minimum:

Dari Ketidaksamaan Chebyshev untuk Xˉn\bar{X}_n: P(Xˉn102)σ2nε2=25n4=254nP(|\bar{X}_n - 10| \geq 2) \leq \frac{\sigma^2}{n\varepsilon^2} = \frac{25}{n \cdot 4} = \frac{25}{4n}

Syarat: 254n0.05\dfrac{25}{4n} \leq 0.05

4n250.05=500    n5004=1254n \geq \frac{25}{0.05} = 500 \implies n \geq \frac{500}{4} = 125

Jadi ukuran sampel minimum yang dijamin adalah n=125n = 125.

5. Verification

  • Bagian (a): 25/640.39125/64 \approx 0.391 adalah batas atas yang valid. Batas ini konservatif — distribusi aktual mungkin memberikan probabilitas jauh lebih kecil.
  • Bagian (b): Batas Markov 0.5 sangat longgar — hanya menggunakan informasi mean. Jika distribusi diketahui (misalnya Normal), batas aktual P(X20)=P(Z2)0.023P(X \geq 20) = P(Z \geq 2) \approx 0.023 jauh lebih kecil.
  • Bagian (c): Cek n=125n = 125: 25/(4×125)=25/500=0.050.0525/(4 \times 125) = 25/500 = 0.05 \leq 0.05 ✓. Untuk n=124n = 124: 25/4960.0504>0.0525/496 \approx 0.0504 > 0.05 — tidak memenuhi syarat. ✓
Exam Tips — Soal A
  • Target waktu: 5–6 menit.
  • Common trap — Markov vs Chebyshev: Markov memerlukan X0X \geq 0 dan menggunakan E[X]E[X]; Chebyshev memerlukan existensi Var(X)\text{Var}(X) dan menggunakan deviasi dari mean. Pilih yang sesuai dengan apa yang diberikan dan yang diminta.
  • Common trap — unit ε\varepsilon: Dalam Chebyshev, ε\varepsilon adalah deviasi dari mean (bukan ε\varepsilon standar deviasi). Jangan bingungkan P(Xμkσ)P(|X-\mu| \geq k\sigma) dengan P(Xμε)P(|X-\mu| \geq \varepsilon) — keduanya berbeda format.
  • Shortcut bagian (c): Rumus langsung nσ2/(ε2δ)n \geq \sigma^2/(\varepsilon^2\delta): substitusi 25/(4×0.05)=25/0.2=12525/(4 \times 0.05) = 25/0.2 = 125. Selalu bulatkan ke atas ke bilangan bulat.

Soal B — Exam-Typical

Sebuah perusahaan asuransi jiwa memodelkan klaim individu XiX_i dengan E[Xi]=50E[X_i] = 50 juta rupiah dan Var(Xi)=900\text{Var}(X_i) = 900 (dalam satuan juta rupiah kuadrat), untuk i=1,2,,ni = 1, 2, \ldots, n, i.i.d.

(a) Misalkan n=100n = 100. Gunakan Ketidaksamaan Chebyshev untuk menentukan batas bawah P(47Xˉ10053)P(47 \leq \bar{X}_{100} \leq 53).

(b) Tentukan ukuran sampel minimum nn agar P(Xˉn50<1.5)0.96P(|\bar{X}_n - 50| < 1.5) \geq 0.96.

(c) Interpretasikan hasil WLLN dalam konteks aktuaria: apa yang terjadi pada distribusi Xˉn\bar{X}_n ketika nn \to \infty?

Solusi Soal B

1. Identifikasi Variabel

  • μ=50\mu = 50, σ2=900\sigma^2 = 900, σ=30\sigma = 30 (dalam juta rupiah).
  • Bagian (a): n=100n = 100, Xˉ100\bar{X}_{100}, interval [47,53][47, 53] berarti ε=3\varepsilon = 3.
  • Bagian (b): toleransi ε=1.5\varepsilon = 1.5, jaminan 1δ=0.961 - \delta = 0.96, sehingga δ=0.04\delta = 0.04.

2. Identifikasi Distribusi / Model

  • Xˉn\bar{X}_n memiliki E[Xˉn]=μ=50E[\bar{X}_n] = \mu = 50 dan Var(Xˉn)=σ2/n=900/n\text{Var}(\bar{X}_n) = \sigma^2/n = 900/n.
  • Terapkan Chebyshev pada Xˉn\bar{X}_n dengan Var(Xˉn)\text{Var}(\bar{X}_n) yang bergantung pada nn.

3. Setup Persamaan

(a) Interval [47,53][47, 53] simetris di sekitar μ=50\mu = 50 dengan ε=3\varepsilon = 3: P(Xˉ10050<3)1Var(Xˉ100)32P(|\bar{X}_{100} - 50| < 3) \geq 1 - \frac{\text{Var}(\bar{X}_{100})}{3^2}

(b) P(Xˉn50<1.5)0.96P(|\bar{X}_n - 50| < 1.5) \geq 0.96 ekuivalen dengan P(Xˉn501.5)0.04P(|\bar{X}_n - 50| \geq 1.5) \leq 0.04.

Dari Chebyshev: 900n(1.5)20.04\dfrac{900}{n \cdot (1.5)^2} \leq 0.04

4. Eksekusi Aljabar

(a) Batas bawah probabilitas:

Var(Xˉ100)=900/100=9\text{Var}(\bar{X}_{100}) = 900/100 = 9

P(Xˉ10050<3)1932=199=11=0P(|\bar{X}_{100} - 50| < 3) \geq 1 - \frac{9}{3^2} = 1 - \frac{9}{9} = 1 - 1 = 0

Batas Chebyshev memberikan P0P \geq 0 — yang tidak informatif karena batas ini tidak ketat.

Cek lebih teliti: Chebyshev menjamin P(Xˉ100503)9/9=1P(|\bar{X}_{100} - 50| \geq 3) \leq 9/9 = 1, sehingga P(Xˉ10050<3)0P(|\bar{X}_{100} - 50| < 3) \geq 0. Batas ini tidak bermakna karena probabilitas selalu 0\geq 0.

Masalahnya: ε=3\varepsilon = 3 terlalu kecil relatif terhadap Var(Xˉ100)=9\text{Var}(\bar{X}_{100}) = 9 (ε<σXˉ=3\varepsilon < \sigma_{\bar{X}} = 3). Chebyshev hanya berguna ketika batas σ2/ε2<1\sigma^2/\varepsilon^2 < 1, yaitu ketika ε>σXˉ=9=3\varepsilon > \sigma_{\bar{X}} = \sqrt{9} = 3. Untuk ε=3=σXˉ\varepsilon = 3 = \sigma_{\bar{X}}, batas Chebyshev mencapai tepat 1.

Dengan ε=3\varepsilon = 3 dan Var(Xˉ100)=9\text{Var}(\bar{X}_{100}) = 9: σ2/ε2=9/9=1\sigma^2/\varepsilon^2 = 9/9 = 1, sehingga Chebyshev hanya menjamin P0P \geq 0, yang selalu benar tetapi tidak berguna.

Koreksi interpretasi: Untuk memberikan batas bawah yang bermakna, kita butuh ε>σXˉ=3\varepsilon > \sigma_{\bar{X}} = 3. Misalnya untuk ε=4.5\varepsilon = 4.5: P(Xˉ10050<4.5)19/20.250.556P(|\bar{X}_{100} - 50| < 4.5) \geq 1 - 9/20.25 \approx 0.556.

(b) Ukuran Sampel Minimum: 900n(1.5)20.04    9002.25n0.04    400n0.04    n4000.04=10,000\frac{900}{n(1.5)^2} \leq 0.04 \implies \frac{900}{2.25\,n} \leq 0.04 \implies \frac{400}{n} \leq 0.04 \implies n \geq \frac{400}{0.04} = 10{,}000

Jadi diperlukan n10.000n \geq 10.000 sampel klaim.

(c) Interpretasi WLLN dalam Konteks Aktuaria:

Seiring nn \to \infty, WLLN menjamin bahwa XˉnP50\bar{X}_n \xrightarrow{P} 50 juta rupiah. Secara praktis: dengan portofolio yang semakin besar, rata-rata klaim per polis semakin mendekati 50 juta rupiah dengan probabilitas yang semakin tinggi. Aktuaris dapat menggunakan rata-rata historis dari portofolio besar sebagai estimasi yang handal untuk mean populasi, dan ketidakpastian estimasi (diukur oleh Var(Xˉn)=900/n\text{Var}(\bar{X}_n) = 900/n) mengecil berbanding terbalik dengan ukuran portofolio. Ini adalah dasar mengapa hukum bilangan besar menjadi fondasi penetapan premi: premi yang ditetapkan berdasarkan rata-rata historis dari banyak polis konvergen ke premi “aktuarially fair” yang sebenarnya.

5. Verification

  • Bagian (a): ε2=9=Var(Xˉ100)\varepsilon^2 = 9 = \text{Var}(\bar{X}_{100}), sehingga batas Chebyshev tepat = 1, tidak bermakna. Ini adalah temuan penting yang menunjukkan keterbatasan Chebyshev untuk nn yang tidak cukup besar. ✓
  • Bagian (b): n=10.000n = 10.000: 900/(10000×2.25)=900/22500=0.040.04900/(10000 \times 2.25) = 900/22500 = 0.04 \leq 0.04 ✓. n=9.999n = 9.999: 900/(9999×2.25)0.04001>0.04900/(9999 \times 2.25) \approx 0.04001 > 0.04 ✗. ✓
Exam Tips — Soal B
  • Target waktu: 8–10 menit.
  • Common trap — batas Chebyshev yang tidak informatif: Ketika σ2/ε21\sigma^2/\varepsilon^2 \geq 1, batas Chebyshev 1\geq 1 sehingga hanya menjamin probabilitas 0\geq 0 — tidak berguna. Ini terjadi ketika εσ\varepsilon \leq \sigma. Soal ini menguji kemampuan mengenali keterbatasan Chebyshev.
  • Interpretasi praktis: Hasil n10.000n \geq 10.000 menunjukkan bahwa Chebyshev sangat konservatif — dalam praktik, CLT (topik 4.3 Teorema Limit Pusat (CLT)) memberikan perkiraan jauh lebih efisien. Chebyshev berlaku untuk distribusi apapun; CLT lebih akurat tetapi memerlukan nn besar dan mengasumsikan normalitas asimtotik.
  • Shortcut bagian (b): Rumus langsung nσ2/(ε2δ)=900/(2.25×0.04)=900/0.09=10000n \geq \sigma^2/(\varepsilon^2\delta) = 900/(2.25 \times 0.04) = 900/0.09 = 10000.

Soal C — Challenging

Misalkan X1,X2,X_1, X_2, \ldots adalah sampel i.i.d. dengan E[Xi]=μE[X_i] = \mu dan Var(Xi)=σ2<\text{Var}(X_i) = \sigma^2 < \infty.

(a) Buktikan bahwa Xˉn2Pμ2\bar{X}_n^2 \xrightarrow{P} \mu^2 (kuadrat rata-rata sampel konvergen dalam probabilitas ke kuadrat mean).

(b) Misalkan gg adalah fungsi kontinu. Tunjukkan mengapa g(Xˉn)Pg(μ)g(\bar{X}_n) \xrightarrow{P} g(\mu) (Continuous Mapping Theorem — [BEYOND CF2] hanya intuisi).

(c) Definisikan Sn2=1ni=1n(XiXˉn)2S_n^2 = \frac{1}{n}\sum_{i=1}^n (X_i - \bar{X}_n)^2 (variansi sampel dengan pembagi nn). Tunjukkan bahwa Sn2Pσ2S_n^2 \xrightarrow{P} \sigma^2 menggunakan LLN.

(d) Dalam konteks uji konsistensi estimator, jelaskan mengapa Xˉn\bar{X}_n adalah estimator konsisten untuk μ\mu, dan apakah Sn2S_n^2 konsisten untuk σ2\sigma^2.

Solusi Soal C

1. Identifikasi Variabel

  • XˉnPμ\bar{X}_n \xrightarrow{P} \mu dari WLLN (sudah diketahui).
  • Perlu menunjukkan bahwa LLN berlaku untuk fungsi dari Xˉn\bar{X}_n dan untuk statistik lain.

2. Identifikasi Distribusi / Model

  • Tidak ada distribusi spesifik — argumen berlaku untuk distribusi apapun dengan dua momen pertama berhingga.
  • Bagian ini menghubungkan LLN dengan konsistensi estimator dari 4.6 Sifat-Sifat Estimator.

3. Setup Persamaan

Kunci: gunakan identitas aljabar dan terapkan LLN pada rata-rata sampel yang sesuai.

4. Eksekusi Aljabar

(a) Konvergensi Xˉn2Pμ2\bar{X}_n^2 \xrightarrow{P} \mu^2:

Gunakan identitas: Xˉn2μ2=(Xˉnμ)(Xˉn+μ)\bar{X}_n^2 - \mu^2 = (\bar{X}_n - \mu)(\bar{X}_n + \mu)

Untuk setiap ε>0\varepsilon > 0, terapkan Chebyshev pada Xˉn\bar{X}_n. Dari WLLN: XˉnPμ\bar{X}_n \xrightarrow{P} \mu, sehingga Xˉn+μP2μ\bar{X}_n + \mu \xrightarrow{P} 2\mu (karena μ\mu adalah konstanta).

Lebih formal, gunakan batas Chebyshev: P(Xˉn2μ2ε)=P(XˉnμXˉn+με)P(|\bar{X}_n^2 - \mu^2| \geq \varepsilon) = P(|\bar{X}_n - \mu||\bar{X}_n + \mu| \geq \varepsilon)

Untuk nn besar, Xˉn\bar{X}_n mendekati μ\mu, sehingga Xˉn+μ|\bar{X}_n + \mu| dibatasi oleh konstanta MM dengan probabilitas tinggi. Kemudian: P(XˉnμMε)P ⁣(XˉnμεM)σ2M2nε20P(|\bar{X}_n - \mu| \cdot M \geq \varepsilon) \leq P\!\left(|\bar{X}_n - \mu| \geq \frac{\varepsilon}{M}\right) \leq \frac{\sigma^2 M^2}{n\varepsilon^2} \to 0

\therefore Xˉn2Pμ2\bar{X}_n^2 \xrightarrow{P} \mu^2.

(b) Continuous Mapping Theorem [BEYOND CF2 — intuisi]:

Jika gg kontinu dan XˉnPμ\bar{X}_n \xrightarrow{P} \mu, maka untuk setiap ε>0\varepsilon > 0, terdapat δ>0\delta > 0 sedemikian sehingga g(x)g(μ)<ε|g(x) - g(\mu)| < \varepsilon kapanpun xμ<δ|x - \mu| < \delta (dari definisi kontinuitas). Karena P(Xˉnμδ)0P(|\bar{X}_n - \mu| \geq \delta) \to 0, maka P(g(Xˉn)g(μ)ε)P(Xˉnμδ)0P(|g(\bar{X}_n) - g(\mu)| \geq \varepsilon) \leq P(|\bar{X}_n - \mu| \geq \delta) \to 0.

(c) Konsistensi Sn2S_n^2 untuk σ2\sigma^2:

Gunakan identitas: Sn2=1ni=1n(XiXˉn)2=1ni=1nXi2Xˉn2S_n^2 = \frac{1}{n}\sum_{i=1}^n (X_i - \bar{X}_n)^2 = \frac{1}{n}\sum_{i=1}^n X_i^2 - \bar{X}_n^2

Terapkan LLN pada dua suku:

Suku pertama: 1ni=1nXi2PE[X2]=σ2+μ2\dfrac{1}{n}\sum_{i=1}^n X_i^2 \xrightarrow{P} E[X^2] = \sigma^2 + \mu^2 (LLN diterapkan pada Xi2X_i^2, dengan E[Xi2]=σ2+μ2<E[X_i^2] = \sigma^2 + \mu^2 < \infty).

Suku kedua: Xˉn2Pμ2\bar{X}_n^2 \xrightarrow{P} \mu^2 (dari bagian (a)).

Menggunakan sifat konvergensi dalam probabilitas (penjumlahan dan selisih dari dua barisan yang konvergen dalam probabilitas juga konvergen): Sn2P(σ2+μ2)μ2=σ2S_n^2 \xrightarrow{P} (\sigma^2 + \mu^2) - \mu^2 = \sigma^2

\therefore Sn2Pσ2S_n^2 \xrightarrow{P} \sigma^2, jadi Sn2S_n^2 adalah estimator konsisten untuk σ2\sigma^2.

(d) Konsistensi Estimator:

Xˉn\bar{X}_n konsisten untuk μ\mu: Dari WLLN, XˉnPμ\bar{X}_n \xrightarrow{P} \mu — ini adalah definisi konsistensi estimator (lihat 4.6 Sifat-Sifat Estimator). Formal: untuk setiap ε>0\varepsilon > 0, P(Xˉnμ>ε)0P(|\bar{X}_n - \mu| > \varepsilon) \to 0 saat nn \to \infty.

Sn2S_n^2 konsisten untuk σ2\sigma^2: Dari bagian (c), Sn2Pσ2S_n^2 \xrightarrow{P} \sigma^2 — ya, Sn2S_n^2 juga konsisten.

Catatan: Sn2S_n^2 dengan pembagi nn adalah bias (bukan tak-bias) karena E[Sn2]=(n1)σ2/nσ2E[S_n^2] = (n-1)\sigma^2/n \neq \sigma^2. Namun ia tetap konsisten karena biasnya 0\to 0 saat nn \to \infty. Ini menunjukkan bahwa konsistensi dan ketidakbiasan adalah sifat yang berbeda.

5. Verification

  • Bagian (a): Xˉn2μ2=(Xˉnμ)(Xˉn+μ)\bar{X}_n^2 - \mu^2 = (\bar{X}_n-\mu)(\bar{X}_n+\mu); faktor pertama 0\to 0 dalam probabilitas, faktor kedua dibatasi → produk 0\to 0 dalam probabilitas ✓
  • Bagian (c): Sn2=1nXi2Xˉn2PE[X2]μ2=σ2S_n^2 = \frac{1}{n}\sum X_i^2 - \bar{X}_n^2 \xrightarrow{P} E[X^2] - \mu^2 = \sigma^2
  • Bagian (d): Konsistensi tidak memerlukan ketidakbiasan — Sn2S_n^2 bias tetapi konsisten; S2=nSn2/(n1)S^2 = nS_n^2/(n-1) tak-bias DAN konsisten ✓
Exam Tips — Soal C
  • Target waktu: 12–15 menit.
  • Teknik kunci — identitas aljabar: Untuk membuktikan konvergensi statistik yang lebih kompleks (seperti Sn2S_n^2), hampir selalu dimulai dengan memecah statistik menggunakan identitas aljabar, lalu terapkan LLN pada setiap suku.
  • Pola umum konsistensi via LLN: Jika statistik TnT_n dapat ditulis sebagai fungsi kontinu dari rata-rata sampel beberapa statistik (misalnya rata-rata Xi2X_i^2, rata-rata XiX_i), maka TnT_n konsisten karena kombinasi LLN dan Continuous Mapping Theorem.
  • Perbedaan bias vs konsistensi: Selalu bedakan — bias adalah properti untuk nn tetap (E[θ^]θE[\hat\theta] \neq \theta), konsistensi adalah properti asimtotik (θ^nPθ\hat\theta_n \xrightarrow{P} \theta). Estimator bisa bias tetapi konsisten (seperti Sn2S_n^2) atau tak-bias tetapi tidak konsisten (kasus patologis, jarang di CF2).

Section 5 — Verifikasi & Sanity Check

Validasi Ketidaksamaan Markov dan Chebyshev
  • Batas Markov: P(Xa)E[X]/aP(X \geq a) \leq E[X]/a harus [0,1]\in [0,1]. Jika E[X]/a>1E[X]/a > 1, batas tidak informatif (tapi tetap valid secara matematis).
  • Batas Chebyshev: σ2/ε2\sigma^2/\varepsilon^2 harus 1\leq 1 agar memberikan batas yang berguna (probabilitas <1< 1). Jika εσ\varepsilon \leq \sigma, batas Chebyshev 1\geq 1 dan tidak informatif.
  • Kedua batas selalu non-negatif dan tidak pernah negatif secara definisi.
Validasi Penerapan LLN
  • Periksa bahwa XiX_i i.i.d. (identik dan independen) — jika tidak, LLN standar tidak berlaku.
  • Periksa existensi E[Xi]=μ<E[X_i] = \mu < \infty (diperlukan untuk WLLN dan SLLN).
  • Periksa existensi Var(Xi)=σ2<\text{Var}(X_i) = \sigma^2 < \infty (diperlukan khususnya untuk bukti WLLN via Chebyshev).
  • Var(Xˉn)=σ2/n\text{Var}(\bar{X}_n) = \sigma^2/n harus 0\to 0 saat nn \to \infty — kondisi ini terpenuhi untuk semua σ2<\sigma^2 < \infty.
Cek Ukuran Sampel dari Chebyshev
  • Rumus nσ2/(ε2δ)n \geq \sigma^2/(\varepsilon^2\delta) harus memberikan bilangan bulat — bulatkan ke atas.
  • Substitusikan nn yang diperoleh kembali ke σ2/(nε2)\sigma^2/(n\varepsilon^2) dan verifikasi bahwa nilainya δ\leq \delta.
  • Cek n1n-1 untuk memastikan batas tidak terpenuhi (membuktikan nn adalah minimum).

Metode Alternatif

Menggunakan Ketidaksamaan Chebyshev dalam bentuk standar deviasi:

Ketidaksamaan Chebyshev dapat ditulis dalam bentuk kk standar deviasi: P(Xμkσ)1k2P(|X - \mu| \geq k\sigma) \leq \frac{1}{k^2}

Ini diperoleh dengan mensubstitusi ε=kσ\varepsilon = k\sigma. Berguna ketika soal dinyatakan dalam kelipatan standar deviasi: misalnya P(Xμ3σ)1/9P(|X-\mu| \geq 3\sigma) \leq 1/9.

Menghitung batas tighter menggunakan informasi distribusi:

Chebyshev berlaku untuk distribusi apapun. Jika distribusi diketahui (misalnya Normal), probabilitas aktual dapat dihitung secara eksak dan jauh lebih baik dari batas Chebyshev:

  • Chebyshev: P(Xμ2σ)1/4=0.25P(|X-\mu| \geq 2\sigma) \leq 1/4 = 0.25
  • Normal aktual: P(Xμ2σ)0.046P(|X-\mu| \geq 2\sigma) \approx 0.046

Perbedaan ini menunjukkan betapa konservatifnya Chebyshev — tetapi keunggulannya adalah berlaku universal.

Section 6 — Visualisasi Mental

Bayangkan distribusi Xˉn\bar{X}_n yang “menyempit” seiring bertambahnya nn: Untuk n=1n = 1, distribusi Xˉ1=X1\bar{X}_1 = X_1 memiliki bentuk sama dengan distribusi populasi — mungkin sangat tersebar. Untuk n=10n = 10, distribusi Xˉ10\bar{X}_{10} sudah mulai mengumpul di sekitar μ\mu. Untuk n=100n = 100, distribusi Xˉ100\bar{X}_{100} sangat terkonsentrasi di sekitar μ\mu. Untuk nn \to \infty, distribusi Xˉn\bar{X}_n “runtuh” ke titik tunggal μ\mu — inilah yang dimaksud konvergensi dalam probabilitas. Bayangkan deretan distribusi berbentuk lonceng yang semakin sempit dan semakin terpusat: variansinya σ2/n\sigma^2/n mengecil secara berbanding terbalik dengan nn.

Ketidaksamaan Markov sebagai batas “area ekor”: Bayangkan grafik PDF dari variabel acak non-negatif XX. Area di sebelah kanan garis x=ax = a adalah P(Xa)P(X \geq a). Rata-rata E[X]E[X] adalah “titik keseimbangan” distribusi. Markov mengatakan: area ekor tidak bisa melebihi E[X]/aE[X]/a — jika mean adalah 10 dan kita melihat area di sebelah kanan 20, maka area tersebut paling banyak 10/20=0.510/20 = 0.5.

Ketidaksamaan Chebyshev sebagai batas “area di luar pita”: Bayangkan pita simetris [με,μ+ε][\mu - \varepsilon, \mu + \varepsilon] di sekitar mean. Area di luar pita ini adalah P(Xμε)P(|X-\mu| \geq \varepsilon). Chebyshev mengatakan: area ini tidak bisa melebihi σ2/ε2\sigma^2/\varepsilon^2 — seberapa lebar pun pita itu, pembatasan ini berlaku untuk distribusi manapun.

Hubungan Visual ↔ Rumus

Distribusi Xˉn\bar{X}_n yang menyempit: Var(Xˉn)=σ2n0lebar distribusiσn0\text{Var}(\bar{X}_n) = \frac{\sigma^2}{n} \to 0 \longleftrightarrow \text{lebar distribusi} \propto \frac{\sigma}{\sqrt{n}} \to 0

Batas Chebyshev sebagai area ekor: P(Xμε)σ2ε2variansitoleransi2P(|X-\mu| \geq \varepsilon) \leq \frac{\sigma^2}{\varepsilon^2} \longleftrightarrow \frac{\text{variansi}}{\text{toleransi}^2}

Bukti WLLN via “squeeze”: 0P(Xˉnμε)σ2nε20probabilitas terjepit antara 0 dan sesuatu yang00 \leq P(|\bar{X}_n - \mu| \geq \varepsilon) \leq \frac{\sigma^2}{n\varepsilon^2} \to 0 \longleftrightarrow \text{probabilitas terjepit antara 0 dan sesuatu yang} \to 0

Section 7 — Jebakan Umum

Kesalahan Parametrisasi

Kesalahan pada Bentuk Chebyshev:

Salah: P(Xμε)ε2σ2P(|X - \mu| \geq \varepsilon) \leq \dfrac{\varepsilon^2}{\sigma^2} (pembilang dan penyebut terbalik)

Benar: P(Xμε)σ2ε2P(|X - \mu| \geq \varepsilon) \leq \dfrac{\sigma^2}{\varepsilon^2}

Mnemonic: batas harus 0\to 0 ketika ε\varepsilon \to \infty (deviasi besar semakin tidak mungkin) — ini hanya benar untuk σ2/ε2\sigma^2/\varepsilon^2, bukan ε2/σ2\varepsilon^2/\sigma^2. Juga: satuan harus konsisten — σ2\sigma^2 dan ε2\varepsilon^2 harus dalam satuan yang sama (kuadrat satuan XX).

Kesalahan Membalik Ketidaksamaan:

Salah: P(Xμ<ε)1σ2/ε2P(|X-\mu| < \varepsilon) \leq 1 - \sigma^2/\varepsilon^2

Benar: P(Xμ<ε)1σ2/ε2P(|X-\mu| < \varepsilon) \geq 1 - \sigma^2/\varepsilon^2

Chebyshev memberikan batas atas untuk P(ε)P(|\cdot| \geq \varepsilon), yang ekuivalen dengan batas bawah untuk P(<ε)P(|\cdot| < \varepsilon). Selalu periksa arah ketidaksamaan.

Kesalahan Konseptual
  1. Mengira LLN berarti Xˉn\bar{X}_n pasti sama dengan μ\mu untuk nn besar. LLN adalah pernyataan probabilistik, bukan deterministik. Untuk nn berhingga berapapun, Xˉn\bar{X}_n masih variabel acak yang bisa berbeda dari μ\mu. Yang dijamin adalah bahwa probabilitas deviasi besar mengecil ke nol.
  2. Mengira WLLN dan SLLN identik. SLLN lebih kuat: ia menjamin konvergensi jalur sampel (hampir setiap realisasi barisan Xˉn\bar{X}_n konvergen ke μ\mu), sementara WLLN hanya menjamin konvergensi distribusional untuk setiap nn tetap.
  3. Mengira Chebyshev memerlukan distribusi tertentu. Ketidaksamaan Chebyshev berlaku untuk distribusi apapun yang memiliki mean dan variansi berhingga — ini adalah kekuatannya yang paling utama. Tidak diperlukan asumsi normalitas atau bentuk distribusi lainnya.
  4. Mengira batas Chebyshev yang longgar berarti hasil salah. Batas Chebyshev sangat konservatif (overestimate) — probabilitas aktual bisa jauh lebih kecil. Ini normal dan bukan indikasi kesalahan perhitungan.
Kesalahan Interpretasi Soal
  • “Berikan batas atas untuk P(Xa)P(X \geq a) dengan XX bisa negatif → Markov tidak berlaku langsung; gunakan Chebyshev: P(Xa)=P(Xμaμ)P(Xμaμ)σ2/(aμ)2P(X \geq a) = P(X - \mu \geq a - \mu) \leq P(|X-\mu| \geq a-\mu) \leq \sigma^2/(a-\mu)^2 jika a>μa > \mu.
  • “Berapa ukuran sampel minimum agar P(Xˉnμ<ε)1δP(|\bar{X}_n - \mu| < \varepsilon) \geq 1 - \delta?” → gunakan nσ2/(ε2δ)n \geq \sigma^2/(\varepsilon^2\delta); jangan lupa δ=1\delta = 1 - (probabilitas yang diminta), dan ε\varepsilon adalah setengah lebar interval jika interval dinyatakan sebagai [με,μ+ε][\mu - \varepsilon, \mu + \varepsilon].
  • “Buktikan konsistensi estimator θ^n\hat{\theta}_n → tunjukkan P(θ^nθ>ε)0P(|\hat{\theta}_n - \theta| > \varepsilon) \to 0 saat nn \to \infty; seringkali diselesaikan dengan menunjukkan bahwa bias 0\to 0 DAN variansi 0\to 0 (karena E[(θ^nθ)2]0E[(\hat\theta_n - \theta)^2] \to 0 mengimplikasikan konvergensi dalam probabilitas).
Red Flags
  • Soal meminta batas probabilitas tanpa menyebutkan distribusi: Gunakan Chebyshev (dengan σ2\sigma^2) atau Markov (untuk X0X \geq 0 dengan E[X]E[X]) — jangan gunakan tabel Normal atau distribusi spesifik.
  • σ2/ε21\sigma^2/\varepsilon^2 \geq 1 dalam Chebyshev: Batas tidak informatif (P0P \geq 0 selalu benar). Ini terjadi ketika εσ\varepsilon \leq \sigma — perlu menambah nn atau memperlebar toleransi ε\varepsilon.
  • Soal tentang “konsistensi estimator”: Langsung hubungkan dengan LLN — rata-rata sampel selalu konsisten (dari WLLN); untuk estimator lain, cek apakah bisa dinyatakan sebagai fungsi kontinu dari rata-rata sampel.
  • Kata kunci “untuk setiap nn besar” atau “asimtotik”: Ini adalah sinyal untuk menggunakan LLN atau CLT, bukan distribusi eksak untuk nn tetap.
  • Soal meminta bukti konvergensi statistik kompleks: Gunakan strategi: tulis ulang statistik sebagai fungsi dari rata-rata sampel beberapa besaran, terapkan LLN pada setiap rata-rata, gabungkan menggunakan sifat konvergensi dalam probabilitas.

Section 8 — Ringkasan Eksekutif

Must-Remember
  1. Ketidaksamaan Markov (X0X \geq 0): P(Xa)E[X]a,a>0P(X \geq a) \leq \frac{E[X]}{a}, \quad a > 0
  2. Ketidaksamaan Chebyshev (distribusi apapun): P(Xμε)σ2ε2P(Xμ<ε)1σ2ε2P(|X - \mu| \geq \varepsilon) \leq \frac{\sigma^2}{\varepsilon^2} \quad \Longleftrightarrow \quad P(|X-\mu| < \varepsilon) \geq 1 - \frac{\sigma^2}{\varepsilon^2}
  3. Chebyshev pada Xˉn\bar{X}_n — inti bukti WLLN: P ⁣(Xˉnμε)σ2nε2n0P\!\left(|\bar{X}_n - \mu| \geq \varepsilon\right) \leq \frac{\sigma^2}{n\varepsilon^2} \xrightarrow{n\to\infty} 0
  4. Ukuran sampel minimum (Chebyshev): nσ2ε2δuntuk menjamin P(Xˉnμε)δn \geq \frac{\sigma^2}{\varepsilon^2\,\delta} \quad \text{untuk menjamin } P(|\bar{X}_n - \mu| \geq \varepsilon) \leq \delta
  5. Hierarki konvergensi (penting untuk CF2): Xˉna.s.μ  (SLLN)    XˉnPμ  (WLLN),tidak berlaku sebaliknya\bar{X}_n \xrightarrow{\text{a.s.}} \mu \;\text{(SLLN)} \implies \bar{X}_n \xrightarrow{P} \mu \;\text{(WLLN)}, \quad \text{tidak berlaku sebaliknya}

Kapan Digunakan

  • Trigger keywords: “batas probabilitas tanpa distribusi”, “ukuran sampel minimum”, “konvergensi rata-rata sampel”, “hukum bilangan besar”, “konsistensi estimator”, “Chebyshev”, “Markov”, “untuk nn yang besar”, “ketidaksamaan probabilistik”.
  • Tipe skenario soal:
    • Hitung batas atas P(Xa)P(X \geq a) atau P(Xμε)P(|X-\mu| \geq \varepsilon) tanpa distribusi spesifik → Markov atau Chebyshev.
    • Hitung batas bawah P(μεXμ+ε)P(\mu - \varepsilon \leq X \leq \mu + \varepsilon) → Chebyshev (bentuk komplemen).
    • Tentukan nn minimum agar P(Xˉnμ<ε)1δP(|\bar{X}_n - \mu| < \varepsilon) \geq 1-\delta → rumus nσ2/(ε2δ)n \geq \sigma^2/(\varepsilon^2\delta).
    • Buktikan XˉnPμ\bar{X}_n \xrightarrow{P} \mu → rantai Chebyshev tiga langkah.
    • Buktikan konsistensi estimator → tunjukkan konvergensi dalam probabilitas menggunakan LLN.

Kapan TIDAK Boleh Digunakan

  • Jika distribusi diketahui dan pertanyaan memerlukan probabilitas eksak: Gunakan distribusi spesifik (Normal, Poisson, dll.) atau CLT dari 4.3 Teorema Limit Pusat (CLT) — Chebyshev terlalu konservatif untuk perhitungan eksak.
  • Jika E[Xi]E[X_i] tidak terdefinisi (tidak berhingga): LLN tidak berlaku. Misalnya untuk distribusi Cauchy, mean tidak ada dan Xˉn\bar{X}_n tidak konvergen ke nilai apapun.
  • Jika XiX_i tidak identik: Terdapat ekstensi LLN untuk barisan yang tidak identik, tetapi di luar silabus CF2. Asumsi i.i.d. adalah syarat standar yang harus diperiksa.
  • Jika soal meminta pernyataan tentang satu realisasi sampel tertentu: LLN adalah pernyataan asimtotik tentang perilaku rata-rata untuk nn \to \infty, bukan pernyataan tentang sampel spesifik.

Quick Decision Tree

graph TD
    A["Soal tentang probabilitas atau konvergensi"] --> B["Distribusi diketahui secara spesifik?"]
    B -->|"Ya"| C["Gunakan distribusi eksak atau CLT<br>lihat 4.3"]
    B -->|"Tidak (hanya mean dan variansi diketahui)"| D["Apa yang diminta?"]
    D --> E["Batas P(X >= a) untuk X >= 0"]
    D --> F["Batas P(|X - mu| >= eps)"]
    D --> G["Ukuran sampel minimum n"]
    D --> H["Konvergensi X_bar ke mu"]
    E --> I["Ketidaksamaan Markov:<br>P(X >= a) <= E[X] / a"]
    F --> J["Ketidaksamaan Chebyshev:<br>P(|X-mu|>=eps) <= sigma^2 / eps^2<br>Untuk X_bar: ganti sigma^2 dengan sigma^2/n"]
    G --> K["n >= sigma^2 / (eps^2 * delta)<br>Bulatkan ke atas"]
    H --> L["WLLN: X_bar konvergen dalam probabilitas<br>P(|X_bar - mu| >= eps) <= sigma^2/(n*eps^2) -> 0"]
    L --> M["SLLN: konvergensi hampir pasti<br>(lebih kuat, kondisi lebih lemah)"]
    J --> N["Apakah sigma^2 / eps^2 < 1?"]
    N -->|"Ya: batas informatif"| O["Lanjutkan dengan batas ini"]
    N -->|"Tidak: batas >= 1, tidak informatif"| P["Perbesar eps atau tambah n"]

Follow-up Options
  1. “Tunjukkan contoh distribusi di mana batas Chebyshev tepat (tight) — yaitu ada distribusi yang mencapai batas σ2/ε2\sigma^2/\varepsilon^2 secara eksak”
  2. “Jelaskan hubungan 4.4 Hukum Bilangan Besar (LLN) dengan 4.3 Teorema Limit Pusat (CLT): mengapa CLT adalah hasil yang lebih kuat dari LLN?”
  3. “Buat flashcard 1-halaman untuk topik ini”

📖 Ref: Hogg-McKean-Craig (2019) Bab 1.7, 5.1; Hogg-Tanis-Zimm (2015) Bab 5.1–5.2; Miller et al. (2014) Bab 7.1–7.3 | 🗓️ 2026-02-21 | #CF2 #Inferensi #HukumBilanganBesar #LLN #Chebyshev #Markov #Konvergensi #Konsistensi