Hukum Bilangan Besar (LLN)
📊 4.4 — Hukum Bilangan Besar (LLN)
Ringkasan Cepat›
Topik: Hukum Bilangan Besar (LLN) | Bobot: ~20–30% | Difficulty: Medium Ref: Hogg-McKean-Craig (2019) Bab 1.7, 5.1; Hogg-Tanis-Zimm (2015) Bab 5.1–5.2; Miller et al. (2014) Bab 7.1–7.3 | Prereq: 4.1 Penarikan Sampel Acak, 2.1 Variabel Acak Diskrit, 2.2 Variabel Acak Kontinu
Section 0 — Pemetaan Topik
| Topik CF2 | Sub-topik ID | Skill Diuji | Bobot | Difficulty | Prerequisite | Connected Topics | Referensi |
|---|---|---|---|---|---|---|---|
| Topik 4: Inferensi Statistik | 4.4 | Menyatakan dan membedakan WLLN dan SLLN; membuktikan WLLN menggunakan Ketidaksamaan Chebyshev; menerapkan Ketidaksamaan Markov dan Chebyshev untuk batas probabilitas; menginterpretasikan konvergensi dalam probabilitas vs konvergensi hampir pasti; menghubungkan LLN dengan konsistensi estimator; menentukan ukuran sampel minimum dari Ketidaksamaan Chebyshev | 20–30% | Medium | 4.1 Penarikan Sampel Acak, 2.1 Variabel Acak Diskrit, 2.2 Variabel Acak Kontinu, 4.6 Sifat-Sifat Estimator | 4.3 Teorema Limit Pusat (CLT), 4.5 Estimasi Parameter, 4.6 Sifat-Sifat Estimator, 4.7 Selang Kepercayaan | Hogg-McKean-Craig (2019) Bab 1.7, 5.1; Hogg-Tanis-Zimm (2015) Bab 5.1–5.2; Miller et al. (2014) Bab 7.1–7.3 |
Section 1 — Intuisi
Hukum Bilangan Besar adalah formalisasi matematis dari sesuatu yang secara intuitif kita percayai sejak lama: semakin banyak data yang kita kumpulkan, semakin dekat rata-rata sampel mendekati nilai yang sesungguhnya. Bayangkan seorang aktuaris yang sedang mengestimasi rata-rata klaim tahunan untuk lini bisnis asuransi kesehatan baru. Dengan hanya 10 data klaim, rata-rata sampel bisa sangat berfluktuasi dan menyesatkan. Dengan 1.000 data, rata-rata sampel sudah jauh lebih stabil. Dengan 100.000 data, rata-rata sampel hampir pasti sangat dekat dengan rata-rata populasi yang sebenarnya. Hukum Bilangan Besar menjamin secara matematis bahwa fenomena “semakin banyak data semakin baik” ini bukan sekadar harapan, melainkan sebuah kepastian probabilistik.
Fondasi dari LLN adalah dua ketidaksamaan probabilistik yang sederhana namun sangat kuat. Ketidaksamaan Markov mengatakan: untuk variabel acak non-negatif , probabilitas bahwa melampaui nilai dibatasi oleh . Ini adalah batas yang sangat umum — tidak memerlukan asumsi apapun selain non-negativitas dan existensi mean. Ketidaksamaan Chebyshev memperkuat ini: untuk variabel acak dengan mean dan variansi , probabilitas bahwa nilai berjarak lebih dari dari mean dibatasi oleh . Kedua ketidaksamaan ini memberikan batas atas probabilitas untuk peristiwa ekstrem, tanpa perlu mengetahui distribusi tepatnya.
LLN sendiri hadir dalam dua versi. Hukum Lemah Bilangan Besar (WLLN) menyatakan bahwa rata-rata sampel konvergen dalam probabilitas ke — artinya untuk setiap toleransi , probabilitas bahwa mendekati nol ketika . Hukum Kuat Bilangan Besar (SLLN) menyatakan sesuatu yang lebih kuat: konvergen hampir pasti ke — artinya dengan probabilitas 1, setiap realisasi dari barisan akhirnya dan selamanya berada dekat . Dalam praktek aktuaria, LLN adalah justifikasi matematika mengapa penggunaan frekuensi relatif historis (misalnya angka kematian, frekuensi kecelakaan) sebagai estimator probabilitas adalah valid ketika ukuran portofolio cukup besar.
Section 2 — Definisi Formal
Definisi Matematis›
Ketidaksamaan Markov:
Misalkan adalah variabel acak non-negatif dengan . Maka untuk setiap :
Ketidaksamaan Chebyshev:
Misalkan adalah variabel acak dengan dan . Maka untuk setiap :
Ekuivalen:
Hukum Lemah Bilangan Besar (WLLN):
Misalkan adalah barisan variabel acak i.i.d. dengan dan . Definisikan . Maka untuk setiap :
Dinotasikan: (konvergen dalam probabilitas ke ).
Hukum Kuat Bilangan Besar (SLLN):
Dengan asumsi yang sama (atau lebih lemah: cukup ):
Dinotasikan: (konvergen hampir pasti / almost surely ke ).
Variabel & Parameter
| Simbol | Makna | Catatan |
|---|---|---|
| Sampel acak i.i.d. berukuran | Identik dan saling independen | |
| Rata-rata sampel | Variabel acak yang bergantung pada | |
| Mean populasi (parameter target) | Nilai yang ingin didekati oleh | |
| Variansi populasi | Diperlukan untuk WLLN via Chebyshev; kondisi lebih lemah untuk SLLN | |
| Toleransi deviasi (ambang batas) | Seberapa dekat harus ke | |
| Ambang batas dalam Ketidaksamaan Markov | Harus positif; semakin besar , batas semakin kecil | |
| Konvergen dalam probabilitas | Notasi WLLN; lebih lemah dari konvergensi a.s. | |
| Konvergen hampir pasti (almost surely) | Notasi SLLN; lebih kuat dari konvergensi dalam probabilitas | |
| Mean dari rata-rata sampel | (rata-rata sampel adalah estimator tak-bias) | |
| Variansi dari rata-rata sampel | (mengecil ke 0 saat ) |
Rumus Utama
Label: Ketidaksamaan Markov — batas atas paling umum untuk probabilitas ekor; hanya memerlukan non-negativitas dan existensi mean; batas ini seringkali tidak ketat tetapi berlaku untuk distribusi apapun.
Label: Ketidaksamaan Chebyshev — diturunkan dari Ketidaksamaan Markov dengan dan ; memerlukan existensi variansi; berlaku untuk distribusi apapun.
Label: Chebyshev Diterapkan pada — langkah kunci dalam bukti WLLN; menggunakan ; batas ini saat untuk setiap tetap.
Label: Hukum Lemah Bilangan Besar — konsekuensi langsung dari batas Chebyshev di atas; cukup memerlukan (dan ).
Label: Hukum Kuat Bilangan Besar — pernyataan yang lebih kuat; hanya memerlukan ; SLLN mengimplikasikan WLLN (tetapi tidak sebaliknya).
Label: Ukuran Sampel Minimum dari Chebyshev — untuk menjamin ; diperoleh dari ; batas konservatif (overestimate yang diperlukan).
Asumsi Eksplisit
- WLLN: i.i.d. dengan dan . Asumsi variansi berhingga diperlukan untuk bukti via Chebyshev. (Ada versi WLLN tanpa asumsi variansi berhingga, menggunakan fungsi karakteristik, tetapi di luar CF2.)
- SLLN (Kolmogorov): i.i.d. dengan . Kondisi ini lebih lemah dari WLLN — hanya memerlukan mean berhingga, bukan variansi berhingga.
- Ketidaksamaan Markov: hampir pasti (non-negatif), dan .
- Ketidaksamaan Chebyshev: dan ; tidak diperlukan asumsi bentuk distribusi tertentu.
Section 3 — Jembatan Logika
Dari Definisi ke Rumus›
Rantai logika dari prinsip dasar ke WLLN sangat elegan dan penting untuk dipahami sepenuhnya:
Langkah 1 — Hitung momen : Mean sama dengan (tak-bias), dan variansi mengecil ke 0 saat .
Langkah 2 — Terapkan Chebyshev pada :
Langkah 3 — Ambil limit :
Oleh Squeeze Theorem: untuk setiap .
Keindahan bukti ini: tidak perlu mengetahui distribusi — cukup dua momen pertama. Ini membuat LLN berlaku sangat umum.
Perbedaan Konvergensi Dalam Probabilitas vs Hampir Pasti›
Konvergensi Dalam Probabilitas () — WLLN: Untuk setiap : . Interpretasi: untuk besar, sangat mungkin bahwa dekat dengan . Namun, masih ada kemungkinan (yang mengecil) bahwa suatu sampel tertentu menghasilkan jauh dari .
Konvergensi Hampir Pasti () — SLLN: . Interpretasi: hampir setiap realisasi barisan akhirnya dan selamanya mendekati . Ini adalah pernyataan tentang jalur sampel (path-wise), bukan hanya distribusi per nilai .
Analogi: WLLN seperti menjamin bahwa pada hari tertentu, sangat mungkin cuaca mendekati rata-rata musiman. SLLN seperti menjamin bahwa sepanjang hidupmu, rata-rata cuaca harian pasti mendekati rata-rata iklim — tidak hanya pada hari tertentu.
Hierarki: SLLN WLLN (konvergensi a.s. lebih kuat dan mengimplikasikan konvergensi dalam probabilitas), tetapi tidak sebaliknya.
Derivasi Ketidaksamaan Chebyshev dari Ketidaksamaan Markov:
Definisikan . Terapkan Ketidaksamaan Markov pada dengan :
Perhatikan bahwa dan . Substitusi:
Derivasi ini menunjukkan bahwa Chebyshev adalah kasus khusus Markov dengan pilihan cerdas — sehingga Markov lebih fundamental, dan Chebyshev adalah aplikasinya.
Mengapa ?
Langkah kedua menggunakan independensi (semua kovariansi silang = 0). Fakta bahwa saat adalah inti mekanis mengapa LLN bekerja: rata-rata sampel menjadi semakin tidak tersebar di sekitar .
Dilarang›
- Dilarang menyimpulkan dari WLLN bahwa untuk besar: LLN menyatakan konvergensi probabilistik, bukan konvergensi deterministik. Untuk setiap berhingga, masih merupakan variabel acak yang bisa berbeda dari . Yang mengecil adalah probabilitas deviasi besar, bukan deviasi itu sendiri.
- Dilarang menggunakan Ketidaksamaan Markov untuk variabel acak yang bisa bernilai negatif: Markov mensyaratkan hampir pasti. Untuk variabel umum yang bisa negatif, terapkan Markov pada atau gunakan Chebyshev secara langsung.
- Dilarang mengira WLLN dan SLLN setara: SLLN adalah pernyataan yang lebih kuat. SLLN WLLN, tetapi ada barisan yang memenuhi WLLN tetapi bukan SLLN (contoh-contoh ini di luar CF2, tetapi perbedaan konseptualnya sering diuji).
Section 4 — Contoh Soal
Soal A — Fundamental
Misalkan adalah variabel acak dengan dan .
(a) Gunakan Ketidaksamaan Chebyshev untuk menentukan batas atas . (b) Gunakan Ketidaksamaan Markov untuk menentukan batas atas , dengan asumsi . (c) Misalkan adalah sampel i.i.d. dari distribusi yang sama. Tentukan ukuran sampel minimum agar dijamin oleh Ketidaksamaan Chebyshev.
Solusi Soal A›
1. Identifikasi Variabel
- , , .
- Bagian (a): . Bagian (b): , . Bagian (c): , .
2. Identifikasi Distribusi / Model
- Tidak ada distribusi spesifik — gunakan ketidaksamaan umum Chebyshev dan Markov.
- Ini adalah penerapan langsung dari batas probabilistik.
3. Setup Persamaan
(a)
(b)
(c)
4. Eksekusi Aljabar
(a) Ketidaksamaan Chebyshev:
(b) Ketidaksamaan Markov:
(c) Ukuran Sampel Minimum:
Dari Ketidaksamaan Chebyshev untuk :
Syarat:
Jadi ukuran sampel minimum yang dijamin adalah .
5. Verification
- Bagian (a): adalah batas atas yang valid. Batas ini konservatif — distribusi aktual mungkin memberikan probabilitas jauh lebih kecil.
- Bagian (b): Batas Markov 0.5 sangat longgar — hanya menggunakan informasi mean. Jika distribusi diketahui (misalnya Normal), batas aktual jauh lebih kecil.
- Bagian (c): Cek : ✓. Untuk : — tidak memenuhi syarat. ✓
Exam Tips — Soal A›
- Target waktu: 5–6 menit.
- Common trap — Markov vs Chebyshev: Markov memerlukan dan menggunakan ; Chebyshev memerlukan existensi dan menggunakan deviasi dari mean. Pilih yang sesuai dengan apa yang diberikan dan yang diminta.
- Common trap — unit : Dalam Chebyshev, adalah deviasi dari mean (bukan standar deviasi). Jangan bingungkan dengan — keduanya berbeda format.
- Shortcut bagian (c): Rumus langsung : substitusi . Selalu bulatkan ke atas ke bilangan bulat.
Soal B — Exam-Typical
Sebuah perusahaan asuransi jiwa memodelkan klaim individu dengan juta rupiah dan (dalam satuan juta rupiah kuadrat), untuk , i.i.d.
(a) Misalkan . Gunakan Ketidaksamaan Chebyshev untuk menentukan batas bawah .
(b) Tentukan ukuran sampel minimum agar .
(c) Interpretasikan hasil WLLN dalam konteks aktuaria: apa yang terjadi pada distribusi ketika ?
Solusi Soal B›
1. Identifikasi Variabel
- , , (dalam juta rupiah).
- Bagian (a): , , interval berarti .
- Bagian (b): toleransi , jaminan , sehingga .
2. Identifikasi Distribusi / Model
- memiliki dan .
- Terapkan Chebyshev pada dengan yang bergantung pada .
3. Setup Persamaan
(a) Interval simetris di sekitar dengan :
(b) ekuivalen dengan .
Dari Chebyshev:
4. Eksekusi Aljabar
(a) Batas bawah probabilitas:
Batas Chebyshev memberikan — yang tidak informatif karena batas ini tidak ketat.
Cek lebih teliti: Chebyshev menjamin , sehingga . Batas ini tidak bermakna karena probabilitas selalu .
Masalahnya: terlalu kecil relatif terhadap (). Chebyshev hanya berguna ketika batas , yaitu ketika . Untuk , batas Chebyshev mencapai tepat 1.
Dengan dan : , sehingga Chebyshev hanya menjamin , yang selalu benar tetapi tidak berguna.
Koreksi interpretasi: Untuk memberikan batas bawah yang bermakna, kita butuh . Misalnya untuk : .
(b) Ukuran Sampel Minimum:
Jadi diperlukan sampel klaim.
(c) Interpretasi WLLN dalam Konteks Aktuaria:
Seiring , WLLN menjamin bahwa juta rupiah. Secara praktis: dengan portofolio yang semakin besar, rata-rata klaim per polis semakin mendekati 50 juta rupiah dengan probabilitas yang semakin tinggi. Aktuaris dapat menggunakan rata-rata historis dari portofolio besar sebagai estimasi yang handal untuk mean populasi, dan ketidakpastian estimasi (diukur oleh ) mengecil berbanding terbalik dengan ukuran portofolio. Ini adalah dasar mengapa hukum bilangan besar menjadi fondasi penetapan premi: premi yang ditetapkan berdasarkan rata-rata historis dari banyak polis konvergen ke premi “aktuarially fair” yang sebenarnya.
5. Verification
- Bagian (a): , sehingga batas Chebyshev tepat = 1, tidak bermakna. Ini adalah temuan penting yang menunjukkan keterbatasan Chebyshev untuk yang tidak cukup besar. ✓
- Bagian (b): : ✓. : ✗. ✓
Exam Tips — Soal B›
- Target waktu: 8–10 menit.
- Common trap — batas Chebyshev yang tidak informatif: Ketika , batas Chebyshev sehingga hanya menjamin probabilitas — tidak berguna. Ini terjadi ketika . Soal ini menguji kemampuan mengenali keterbatasan Chebyshev.
- Interpretasi praktis: Hasil menunjukkan bahwa Chebyshev sangat konservatif — dalam praktik, CLT (topik 4.3 Teorema Limit Pusat (CLT)) memberikan perkiraan jauh lebih efisien. Chebyshev berlaku untuk distribusi apapun; CLT lebih akurat tetapi memerlukan besar dan mengasumsikan normalitas asimtotik.
- Shortcut bagian (b): Rumus langsung .
Soal C — Challenging
Misalkan adalah sampel i.i.d. dengan dan .
(a) Buktikan bahwa (kuadrat rata-rata sampel konvergen dalam probabilitas ke kuadrat mean).
(b) Misalkan adalah fungsi kontinu. Tunjukkan mengapa (Continuous Mapping Theorem — [BEYOND CF2] hanya intuisi).
(c) Definisikan (variansi sampel dengan pembagi ). Tunjukkan bahwa menggunakan LLN.
(d) Dalam konteks uji konsistensi estimator, jelaskan mengapa adalah estimator konsisten untuk , dan apakah konsisten untuk .
Solusi Soal C›
1. Identifikasi Variabel
- dari WLLN (sudah diketahui).
- Perlu menunjukkan bahwa LLN berlaku untuk fungsi dari dan untuk statistik lain.
2. Identifikasi Distribusi / Model
- Tidak ada distribusi spesifik — argumen berlaku untuk distribusi apapun dengan dua momen pertama berhingga.
- Bagian ini menghubungkan LLN dengan konsistensi estimator dari 4.6 Sifat-Sifat Estimator.
3. Setup Persamaan
Kunci: gunakan identitas aljabar dan terapkan LLN pada rata-rata sampel yang sesuai.
4. Eksekusi Aljabar
(a) Konvergensi :
Gunakan identitas:
Untuk setiap , terapkan Chebyshev pada . Dari WLLN: , sehingga (karena adalah konstanta).
Lebih formal, gunakan batas Chebyshev:
Untuk besar, mendekati , sehingga dibatasi oleh konstanta dengan probabilitas tinggi. Kemudian:
.
(b) Continuous Mapping Theorem [BEYOND CF2 — intuisi]:
Jika kontinu dan , maka untuk setiap , terdapat sedemikian sehingga kapanpun (dari definisi kontinuitas). Karena , maka .
(c) Konsistensi untuk :
Gunakan identitas:
Terapkan LLN pada dua suku:
Suku pertama: (LLN diterapkan pada , dengan ).
Suku kedua: (dari bagian (a)).
Menggunakan sifat konvergensi dalam probabilitas (penjumlahan dan selisih dari dua barisan yang konvergen dalam probabilitas juga konvergen):
, jadi adalah estimator konsisten untuk .
(d) Konsistensi Estimator:
konsisten untuk : Dari WLLN, — ini adalah definisi konsistensi estimator (lihat 4.6 Sifat-Sifat Estimator). Formal: untuk setiap , saat .
konsisten untuk : Dari bagian (c), — ya, juga konsisten.
Catatan: dengan pembagi adalah bias (bukan tak-bias) karena . Namun ia tetap konsisten karena biasnya saat . Ini menunjukkan bahwa konsistensi dan ketidakbiasan adalah sifat yang berbeda.
5. Verification
- Bagian (a): ; faktor pertama dalam probabilitas, faktor kedua dibatasi → produk dalam probabilitas ✓
- Bagian (c): ✓
- Bagian (d): Konsistensi tidak memerlukan ketidakbiasan — bias tetapi konsisten; tak-bias DAN konsisten ✓
Exam Tips — Soal C›
- Target waktu: 12–15 menit.
- Teknik kunci — identitas aljabar: Untuk membuktikan konvergensi statistik yang lebih kompleks (seperti ), hampir selalu dimulai dengan memecah statistik menggunakan identitas aljabar, lalu terapkan LLN pada setiap suku.
- Pola umum konsistensi via LLN: Jika statistik dapat ditulis sebagai fungsi kontinu dari rata-rata sampel beberapa statistik (misalnya rata-rata , rata-rata ), maka konsisten karena kombinasi LLN dan Continuous Mapping Theorem.
- Perbedaan bias vs konsistensi: Selalu bedakan — bias adalah properti untuk tetap (), konsistensi adalah properti asimtotik (). Estimator bisa bias tetapi konsisten (seperti ) atau tak-bias tetapi tidak konsisten (kasus patologis, jarang di CF2).
Section 5 — Verifikasi & Sanity Check
Validasi Ketidaksamaan Markov dan Chebyshev›
- Batas Markov: harus . Jika , batas tidak informatif (tapi tetap valid secara matematis).
- Batas Chebyshev: harus agar memberikan batas yang berguna (probabilitas ). Jika , batas Chebyshev dan tidak informatif.
- Kedua batas selalu non-negatif dan tidak pernah negatif secara definisi.
Validasi Penerapan LLN›
- Periksa bahwa i.i.d. (identik dan independen) — jika tidak, LLN standar tidak berlaku.
- Periksa existensi (diperlukan untuk WLLN dan SLLN).
- Periksa existensi (diperlukan khususnya untuk bukti WLLN via Chebyshev).
- harus saat — kondisi ini terpenuhi untuk semua .
Cek Ukuran Sampel dari Chebyshev›
- Rumus harus memberikan bilangan bulat — bulatkan ke atas.
- Substitusikan yang diperoleh kembali ke dan verifikasi bahwa nilainya .
- Cek untuk memastikan batas tidak terpenuhi (membuktikan adalah minimum).
Metode Alternatif
Menggunakan Ketidaksamaan Chebyshev dalam bentuk standar deviasi:
Ketidaksamaan Chebyshev dapat ditulis dalam bentuk standar deviasi:
Ini diperoleh dengan mensubstitusi . Berguna ketika soal dinyatakan dalam kelipatan standar deviasi: misalnya .
Menghitung batas tighter menggunakan informasi distribusi:
Chebyshev berlaku untuk distribusi apapun. Jika distribusi diketahui (misalnya Normal), probabilitas aktual dapat dihitung secara eksak dan jauh lebih baik dari batas Chebyshev:
- Chebyshev:
- Normal aktual:
Perbedaan ini menunjukkan betapa konservatifnya Chebyshev — tetapi keunggulannya adalah berlaku universal.
Section 6 — Visualisasi Mental
Bayangkan distribusi yang “menyempit” seiring bertambahnya : Untuk , distribusi memiliki bentuk sama dengan distribusi populasi — mungkin sangat tersebar. Untuk , distribusi sudah mulai mengumpul di sekitar . Untuk , distribusi sangat terkonsentrasi di sekitar . Untuk , distribusi “runtuh” ke titik tunggal — inilah yang dimaksud konvergensi dalam probabilitas. Bayangkan deretan distribusi berbentuk lonceng yang semakin sempit dan semakin terpusat: variansinya mengecil secara berbanding terbalik dengan .
Ketidaksamaan Markov sebagai batas “area ekor”: Bayangkan grafik PDF dari variabel acak non-negatif . Area di sebelah kanan garis adalah . Rata-rata adalah “titik keseimbangan” distribusi. Markov mengatakan: area ekor tidak bisa melebihi — jika mean adalah 10 dan kita melihat area di sebelah kanan 20, maka area tersebut paling banyak .
Ketidaksamaan Chebyshev sebagai batas “area di luar pita”: Bayangkan pita simetris di sekitar mean. Area di luar pita ini adalah . Chebyshev mengatakan: area ini tidak bisa melebihi — seberapa lebar pun pita itu, pembatasan ini berlaku untuk distribusi manapun.
Hubungan Visual ↔ Rumus
Distribusi yang menyempit:
Batas Chebyshev sebagai area ekor:
Bukti WLLN via “squeeze”:
Section 7 — Jebakan Umum
Kesalahan Parametrisasi›
Kesalahan pada Bentuk Chebyshev:
Salah: (pembilang dan penyebut terbalik)
Benar:
Mnemonic: batas harus ketika (deviasi besar semakin tidak mungkin) — ini hanya benar untuk , bukan . Juga: satuan harus konsisten — dan harus dalam satuan yang sama (kuadrat satuan ).
Kesalahan Membalik Ketidaksamaan:
Salah:
Benar:
Chebyshev memberikan batas atas untuk , yang ekuivalen dengan batas bawah untuk . Selalu periksa arah ketidaksamaan.
Kesalahan Konseptual›
- Mengira LLN berarti pasti sama dengan untuk besar. LLN adalah pernyataan probabilistik, bukan deterministik. Untuk berhingga berapapun, masih variabel acak yang bisa berbeda dari . Yang dijamin adalah bahwa probabilitas deviasi besar mengecil ke nol.
- Mengira WLLN dan SLLN identik. SLLN lebih kuat: ia menjamin konvergensi jalur sampel (hampir setiap realisasi barisan konvergen ke ), sementara WLLN hanya menjamin konvergensi distribusional untuk setiap tetap.
- Mengira Chebyshev memerlukan distribusi tertentu. Ketidaksamaan Chebyshev berlaku untuk distribusi apapun yang memiliki mean dan variansi berhingga — ini adalah kekuatannya yang paling utama. Tidak diperlukan asumsi normalitas atau bentuk distribusi lainnya.
- Mengira batas Chebyshev yang longgar berarti hasil salah. Batas Chebyshev sangat konservatif (overestimate) — probabilitas aktual bisa jauh lebih kecil. Ini normal dan bukan indikasi kesalahan perhitungan.
Kesalahan Interpretasi Soal›
- “Berikan batas atas untuk ” dengan bisa negatif → Markov tidak berlaku langsung; gunakan Chebyshev: jika .
- “Berapa ukuran sampel minimum agar ?” → gunakan ; jangan lupa (probabilitas yang diminta), dan adalah setengah lebar interval jika interval dinyatakan sebagai .
- “Buktikan konsistensi estimator ” → tunjukkan saat ; seringkali diselesaikan dengan menunjukkan bahwa bias DAN variansi (karena mengimplikasikan konvergensi dalam probabilitas).
Red Flags›
- Soal meminta batas probabilitas tanpa menyebutkan distribusi: Gunakan Chebyshev (dengan ) atau Markov (untuk dengan ) — jangan gunakan tabel Normal atau distribusi spesifik.
- dalam Chebyshev: Batas tidak informatif ( selalu benar). Ini terjadi ketika — perlu menambah atau memperlebar toleransi .
- Soal tentang “konsistensi estimator”: Langsung hubungkan dengan LLN — rata-rata sampel selalu konsisten (dari WLLN); untuk estimator lain, cek apakah bisa dinyatakan sebagai fungsi kontinu dari rata-rata sampel.
- Kata kunci “untuk setiap besar” atau “asimtotik”: Ini adalah sinyal untuk menggunakan LLN atau CLT, bukan distribusi eksak untuk tetap.
- Soal meminta bukti konvergensi statistik kompleks: Gunakan strategi: tulis ulang statistik sebagai fungsi dari rata-rata sampel beberapa besaran, terapkan LLN pada setiap rata-rata, gabungkan menggunakan sifat konvergensi dalam probabilitas.
Section 8 — Ringkasan Eksekutif
Must-Remember›
- Ketidaksamaan Markov ():
- Ketidaksamaan Chebyshev (distribusi apapun):
- Chebyshev pada — inti bukti WLLN:
- Ukuran sampel minimum (Chebyshev):
- Hierarki konvergensi (penting untuk CF2):
Kapan Digunakan
- Trigger keywords: “batas probabilitas tanpa distribusi”, “ukuran sampel minimum”, “konvergensi rata-rata sampel”, “hukum bilangan besar”, “konsistensi estimator”, “Chebyshev”, “Markov”, “untuk yang besar”, “ketidaksamaan probabilistik”.
- Tipe skenario soal:
- Hitung batas atas atau tanpa distribusi spesifik → Markov atau Chebyshev.
- Hitung batas bawah → Chebyshev (bentuk komplemen).
- Tentukan minimum agar → rumus .
- Buktikan → rantai Chebyshev tiga langkah.
- Buktikan konsistensi estimator → tunjukkan konvergensi dalam probabilitas menggunakan LLN.
Kapan TIDAK Boleh Digunakan
- Jika distribusi diketahui dan pertanyaan memerlukan probabilitas eksak: Gunakan distribusi spesifik (Normal, Poisson, dll.) atau CLT dari 4.3 Teorema Limit Pusat (CLT) — Chebyshev terlalu konservatif untuk perhitungan eksak.
- Jika tidak terdefinisi (tidak berhingga): LLN tidak berlaku. Misalnya untuk distribusi Cauchy, mean tidak ada dan tidak konvergen ke nilai apapun.
- Jika tidak identik: Terdapat ekstensi LLN untuk barisan yang tidak identik, tetapi di luar silabus CF2. Asumsi i.i.d. adalah syarat standar yang harus diperiksa.
- Jika soal meminta pernyataan tentang satu realisasi sampel tertentu: LLN adalah pernyataan asimtotik tentang perilaku rata-rata untuk , bukan pernyataan tentang sampel spesifik.
Quick Decision Tree
graph TD
A["Soal tentang probabilitas atau konvergensi"] --> B["Distribusi diketahui secara spesifik?"]
B -->|"Ya"| C["Gunakan distribusi eksak atau CLT<br>lihat 4.3"]
B -->|"Tidak (hanya mean dan variansi diketahui)"| D["Apa yang diminta?"]
D --> E["Batas P(X >= a) untuk X >= 0"]
D --> F["Batas P(|X - mu| >= eps)"]
D --> G["Ukuran sampel minimum n"]
D --> H["Konvergensi X_bar ke mu"]
E --> I["Ketidaksamaan Markov:<br>P(X >= a) <= E[X] / a"]
F --> J["Ketidaksamaan Chebyshev:<br>P(|X-mu|>=eps) <= sigma^2 / eps^2<br>Untuk X_bar: ganti sigma^2 dengan sigma^2/n"]
G --> K["n >= sigma^2 / (eps^2 * delta)<br>Bulatkan ke atas"]
H --> L["WLLN: X_bar konvergen dalam probabilitas<br>P(|X_bar - mu| >= eps) <= sigma^2/(n*eps^2) -> 0"]
L --> M["SLLN: konvergensi hampir pasti<br>(lebih kuat, kondisi lebih lemah)"]
J --> N["Apakah sigma^2 / eps^2 < 1?"]
N -->|"Ya: batas informatif"| O["Lanjutkan dengan batas ini"]
N -->|"Tidak: batas >= 1, tidak informatif"| P["Perbesar eps atau tambah n"]
Follow-up Options›
- “Tunjukkan contoh distribusi di mana batas Chebyshev tepat (tight) — yaitu ada distribusi yang mencapai batas secara eksak”
- “Jelaskan hubungan 4.4 Hukum Bilangan Besar (LLN) dengan 4.3 Teorema Limit Pusat (CLT): mengapa CLT adalah hasil yang lebih kuat dari LLN?”
- “Buat flashcard 1-halaman untuk topik ini”
📖 Ref: Hogg-McKean-Craig (2019) Bab 1.7, 5.1; Hogg-Tanis-Zimm (2015) Bab 5.1–5.2; Miller et al. (2014) Bab 7.1–7.3 | 🗓️ 2026-02-21 | #CF2 #Inferensi #HukumBilanganBesar #LLN #Chebyshev #Markov #Konvergensi #Konsistensi