Sejarah Ilmu Statistika
Perkembangan data dan teknologi tidak terlepas dari perkembangan ilmu statistika. Ilmu statistika berawal dari pembahasan cara-cara mengumpulkan angka sebagai hasil pengamatan menjadi bentuk yang lebih dipahami. Menurut Spiegel (1961) statistika berasal dari kata "status" yang berarti negara. Data-data statistik telah digunakan oleh bangsa-bangsa di Mesopotamia, Mesir dan Cina pada masa sebelum masehi. Statistik digunakan untuk memperoleh informasi jumlah pajak yang harus dibayar oleh setiap penduduk dan jumlah hasil panen dari pertanian.
Ilmu statistika juga sudah digunakan oleh Aristoteles didalam bukunya Politea untuk menggambarkan data tentang keadaan 158 negara pada masa Yunani Kuno. Masuk ke abad pertengahan, ilmu statistika digunakan untuk mencatat jumlah kelahiran, kematian, dan pernikahan. Pada abad ke-17 Masehi, Gottfried Achenwall (1719-1772) memberikan istilah statistika, ia seorang matematikawan berkebangsaan Jerman. Lalu istilah statistika dipopulerkan kembali oleh John Sinclair (1791-1799) dalam bukunya yan berjudul "Statistical Account of Scotland".
Sejarah Perkembangan Ilmu Peluang
Ilmu peluang berawal dari pertanyaan seorang penjudi berkebangsaan Perancis yaitu Chevalier de Mere kepada Pascal (1623-1662) tentang bagaimana pola pembagian uang taruhan pada suatu perjudian apabila permainannya terpaksa dihentikan sebelum selesai. Pertanyaan ini akhirnya mentrigger Pascal dan Hermat (1601-1665) untuk memecahkannya melalui media surat. Dari diskusi tersebut maka muncullah dasar-dasar teori peluang (the theory of probability) pada tahun 1654.
Pada tahun 1657, ilmu peluag dipopulerkan kembali oleh Christian Huygens (guru Leibniz) dalam bukunya De Ratiocinilis in Ludo Aloae yang mengulas tentang risalat perjudian. Lalu Jacob Bernoulli (1654-1705) dan Abraham de Moivre (1667-1705) mempelopori perkembangan ilmu peluang dengan pesat. Abraham de Moivre menemukan Kurva Normal dengan persamaannya dan ciri-cirinya yang kemudian dikembangkan kembali oleh Laplace (1749-1827) berasal dari Perancis dan Gauss (1777-1855) berasal dari Jerman secara terpisah, sejak saat itu ditemukan fungsi normal dan aplikasinya.
Pada tahun 1924 temuan tersebut ditemukan oleh Karl Pearson di suatu perpustakan yang digunakan sebagai dasar pengembangan statistika induktif untuk ukuran sampel besar.
Pada tahun 1837, S.D Poisson menemukan teori Sebaran Poisson (Poisson Distribution) dalam tuisannya Recherches sur la probabilite. Teori ini banyak digunakan dalam dunia industri, manajemen, transportasi, biologi, dan lain-lain. Tahun 1812, Pierre de Laplace menulis buku Theorie Analytique des Probabilities memperkenalkan ide baru dan teknik matematika, pada buku tersebut Laplace banyak menggunakan peluang pada permasalahan saintifik dan praktis.
Ilmu peluang kini sangat bermanfaat bagi perkembangan ilmu statistika, melandasi perkembangan statistika inferensia (statistika induktif) awal mula statitistika modern.
Sejarah Perkembangan Statistika Induktif
Awal mula perkembanga statistika induktif terjadi pada abad 20. Karl Pearson (1857-1936) mempelopori perkembangan statistika induktif yang merupakan awal dari statistika modern. Pada abad 19 Karl Pearson menerapkan ilmu statistika pada kasus hereditas dan proses evolusi biologi pada tahun 1893-1912, ia menulis 18 paper berjudul kontribusi matematika kepada teori evolusi yang berbasiskan analisis regresi dan koefisien korelasi. Bukan hanya itu, Karl Pearson juga memperkenalkan standard deviation (simpangan baku) pada tahun 1893, ukuran penyimpangan terhadap distriusi data yang termasuk statistika deskriptif yang dikenal koefisien kemiringan dan kurtosis.
Tahun 1900 Karl Pearson menemukan Khi-Kuadrat untuk tabel kontingensi 2 arah, dalam menarik kesimpulan Kar Pearson menggunakan sampel berukuran besar (n>1000) dengan asumsi data berdistribusi normal, sehingga pada tahun 1901 lahir Biometrika volume 1. Pada tahun 1912, W.S Gosset (1876-1937) memperkenalkan uji t-student untk sampel kecil, ia adalah mahasiswa dari Karl Pearson, awalnya ia merupakan mahasiswa ahli kimia yang bekerja di perusahaan bir Guinness di Dublin. Penemuannya ini ia gunakan untuk menangani sampel-sampel kecil quality control di perusahaan bir tersebut. Ia menerbitkan paper Student pada jurnal Biometrika 1908 agar terhindar dari larangan perusahaan yakni karyawan tidak diperbolehkan menulis jurnal.
Sebaran secara matematika dari W.S. Gosset ditemukan pada awalnya oleh astronom Jerman Jakib Luroth pada tahun 1875. Gosset menggunakan sebaran tersebut untuk mengukur data tinggi dan jari tengah kiri 3000 narapidana dipublikasikan pada volume pertama Biometrika. Dengan menggunakan metode MonterCarlo dipilih 750 sampel berukuran 4 diperoleh distribusi teoritiknya. Sedangkan t-student digunakan untuk menduga parameter (n<30).
Pada tahun 1922 R.A Fisher (1890-1962) menulis paper On the Mathematcal Foundations of Theoritical Statistics (Mallows, 1998), Fisher memperkenalkan 3 masalah yang muncul pada reduksi data :
1. Spesifikasi dari jenis populasi, bentuk matematis dari populasi yang parameternya tidak diketahui.
2. Estimasi, pemilihan metode statistik untuk mengestimasi parameter dari populasi.
3, Sebaran, sebaran statistik dari contoh atau sampel.
Teori tersebut memperkenalkan Maximum Likelihood yang digunakan untuk menguji hipotesis dan estimasi parameter.
Fisher memiliki kontribusi besar terhadap perkembangan statistika modern hingga ia dianugerahi gelar Baronet dari Ratu Inggris sehingga ia berhak menggunakan nama Sir Ronald Fisher, salah satu yang menjadi karyanya ialah memperkenalkan cara-cara statistika di dalam bidang ilmu pertanian, biologi, dan genetika. Kontribusi lainnya ia membuat cakupan metode pengembangan yang sesuai dengan sampel kecil, seperti Gosset, penemuan presisi sebaran dari beberapa statistik sampel dan penemuan analisis varians, ia juga merekomendasikan maximum likelihood untuk digunakan dalam estimasi dan pengujian hipotesis. Hingga ia dianggap sebagai penemu statistika modern sebab banyak pemikirannya yang penting dalam kemajuan ilmu statistika di abad ke dua puluh.
Pada tahun 1894-1981 Jerzy Neyman mengembangkan teori peluang, uji hipotesis, selang kepercayaan, dan matematika statistik. Setelahnya, Neyman bekerjasama dengan Egon Pearson (anak Karl Pearson) mengembangkan teori uji hipotesis salah satunya Teorema Neymann-Pearson (1936), dan mengembangkan teori sampling survey pada tahun 1934.
Tahun 1915, Fisher menggunakan geometrik peubah-ganda dua (bivariate) untuk menurunkan distribusi sampling bersama dari penduga matriks varian-kovarians. Tahun 1928 Wishart menurunkan matriks varians-kovarians untuk sebaran normal-ganda (Multivariate Normal), yang disebut juga distribusi Wishart. Tahun 1936, Fisher membuat penelitian mengenai fungsi diskriminan untuk menjawab pertanyaan ahli antropologi dalam menentukan jenis kelamin dari pemilik tulang rahang tengkorak yang mempunyai ukuran-ukuran tertentu (klasifikasi 2 grup).
Tahun 1946 Calyampudi Radhakrihnan Rao (Rao), mengembangkan fungsi diskriminan linear Fisher untuk klasifikasi banyak grup, selain itu Rao juga mengembangkan matematika statistik dengan teorinya Rao-cramer (1945) dan Rao-Blackwell (1947). Ia juga membuat buku yang berjudul Linear Statistical Inference yang diterjemahkan ke 6 bahasa.
Tahun 1893-1972 Prasantha Chandra Mahalanobis berkontribusi dalam mengembangkan jarak Mahalanobis (D-statistik) yang merupakan ukuran jarak dalam analisis klasifikasi peubah banyak. Ia mendirikan jurnal statistik India Sankya. Tahun 1931, ia mendirikan Indian Statistical Institutr salah satu divisinya yaitu national Sample Survey (NSS) yang mengumpulkan data sosioekonomik dan demografi di seluruh India. Mahalanobis memiliki peranan penting hingga NSS berfungsi sebagai bagian penting Ministry of Planning.
Ilmuan selanjutnya Hotelling (1931) memperkenalkan statistik T2 yaitu generalisasi dari statistik t-student untuk menguji nilai tengah pada data peubah-ganda. Metode ini sama dengan Mahalanobis-Distance yang mempunyai tujuan berbeda ditemukan oleh Bose dan Roy pada tahun 1938.
Karl Pearson, Gosset, dan R.a. Fisher mendasarkan kesimpulan pada jenis sebaran populasi sehigga dikenal dengan metode parametrik. Jika suatu ketika asumsi sebaran populasi tidak dipenuhi maka perlu dilakukan transformasi pangkat yang disebut transformasi Box Cox (ditemukan oleh Box dan Cox pada 1964). Selain itu pada tahun 1945 Frank Wicoxon memperkenalkan metode statistik non parametrik dari sebaran populasi yakni Uji Tanda Peringkat. Tahun 1952, W. H. Kruskal dan W.A Wallis memperkenalkan analisis varians yakni Uji Kruskal-Wallis. Kaplan pada tahun 1958 menggunakan metode non parametrik untuk pendugaan sekuensial.
Tahun 1970 J. W. Tukey mempunyai kontribusi pengembangan data eksplorasi salah satunya diagram dahan-daun dan diagram kotak garis. Tahun 1970 Efron memperkenalkan metode bootstrap untuk menduga parameter dari sebaran yang tidak diketahui. Metode ini modifikasi dari metode Jacknife yang diperkenalkan oleh Queneuille (1948). Bootstrap dikenal juga dengan metode data driven approach karena tidak berbasis model peluang.
Metode non parametrik berkembang dekade 80-an seperto regresi nonparametrik, estimasi distribusi kernel, dan neural network.
Sejarah Perkembangan Aplikasi Statistika
Pada abad ke 20 statistika berkembang di berbagai bidang mulai dari bidang psikologi, ekonomi, sosiologi, industri, dan lain-lain. Analisis rancangan percobaan berkembang diawali dengan Fisher di bidang pertanian. Analisis ekonometrika dimulai tahun 1920 oleh Regnar Frisch dan Jan Tinbergen yang merupakan cabang ilmu dari ilmu ekonomi (integrasi ilmu matematika, statistika, dan ekonomi).
Pemodelan ekonometrika sempat mendapat sambutan yang kurang baik dikarenakan ekonom-ekonom besar kurang cocok dengan pemodelannya termasuk John Maynard Keynes dimana salah satu buku yang ia baca "Statistical Testing for Business Cycle Theory". Di tahun awal 1950 Chernoff, Haavelmo, Koopmans, Rubin, dan Simon mengembangkan kembali ekonometrika di Cowles Commision for Research in Economics.
Statistika berperan cukup besar bagi pengambilan keputusan baik dari sisi penelitian, bisnis, industri, peternakan ataupun pemerintahan. Mretode-metode yang diciptakan oleh para ilmuwan memberikan kemudahan juga efektifitas pada suatu model atau sistem. Contohnya di bidang peternakan, industri di USA berterima kasih kepada K. Pearson karena melalui teori normal, kemajuan genetik pada produksi susu meningkat 40% pada tahun 1950-an. Selain itu, pada tahun 1930 Shewart yang merupakan murid dari William Edward Deming (1900-1993) mempelajari masalah manajemen tertarik terhadap aplikasi statistika untuk merencanakan pengendalian kualitas dan metode perbaikan proses untuk industri. Ide-idenya diringkas dalam 14 Prinsip Deming yang salah satunya "jangan memilih supplier karena harga, tetapi pertimbangkan kualitas dan pilih supplier yang menggunakan quality control". Untuk memperbaiki proses Deming memperkenalkan langkah-langkah PDCA (Plan, Do, Check, Action) hingga pada tahun 1950 para pimpinan bisnis mengundang Deming untuk mengajarkan metode baru tersebut. Ide tersebut menyebar secara luas di Jepang dan mempengaruhi proses pemulihan industri dan ekonomi Jepang yang hancur setelah Perang Dunia II, yang selanjutnya terjadi economic booming bagi Jepang pada abad 21.
Dengan adanya perkembangan yang cukup pesat pada ilmu statistik, maka timbul ilmu baru yang merupakan gabungan statistika dan manajemen yang dikenal dengan metode SIX SIGMA yang mengusahakan produk dengan konsep zero defect dimana metode ini banyak diterapkan pada industri besar seperti Motorola (awal pemakai Six Sigma), General Electric Company (GE), Kodak, dll.
Memasuki abad 21, trend perkembangan statistika semakin luas. Dominasi informasi, database yang besar, interaksi dengan komputer yang cukup kompleks membuat C.R. Rao menulis sebuah buku pada tahun 2001 "Has Statistics a Future? If So in What Form?" berdasarkan model-model probabilistik tidak mencukupi, sehingga metode-metode yang akan muncul diarahkan untuk menjawab tantangan zaman yang diberi nama data mining. Istilah data mining berasal dari para ahli ilmu komputer yang dalam sehari-harinya bekerja dalam dunia kecerdasan buatan. Dimana pekerjaan tersebut mendorong mereka untuk membangkitkan dan mengumpulkan data dalam ukuran yang sangat besar dan mencoba menemukan pola-pola keteraturan data yang dapat diterangkan dengan jelas.
Disebutkan dalam jurnal Sejarah Perkembangan Statistika dan Aplikasinya dikutip dari David M. Rocke dari University of Caloifornia metode data mining terbagi menjadi dua prinsip dasar yakni data cleaning dan data segmentation, data cleaning untuk mendeteksi data pencilan sedangkan data segmentation untuk pengelompokkan data, sehingga akan diketahui pola dari data. Diperkirakan metode data mining akan banyak digunakan, karena pada prinsipnya spesifikasi permasalahan diutamakan pada bidang ilmunya dibandingkan pendugaan parameter sehingga memungkinkan untuk mendapatkan solusi yang tepat melalui eksplorasi data.
Sumber :
1. Wikipedia, Statistika
2. Sunaryo. Sony, Setiawan, Anik. D, Asep. S (2012). Sejarah Perkembangan Statistika dan Aplikasinya. Bogor: Forum Pendidikan Tinggi Statistika Indonesia. ISSN:0853-8115


terima kasih share ilmunya teh Yuliana Epianingsih semoga bermanfaat, kalo ada waktu sempatkan dilanjutkan baik blog maupun channel yt nya, terutama data sains, data warehouse, data mining, big data berbasis ilmu statistika teh Yuliana Epianingsih , salam sukses damai bahagia
BalasHapusHatur Nuhun udah mampir ke blog dan youtube saya yaa.. insya Allah kalau sudah ada kesempatan lagi saya lanjut sharing ilmunya :)
HapusMba yuliana. Boleh minta wa nya?
Hapus