KOMPARASI ALGORITMA C4.5, NAIVE BAYES, DAN RANDOM FOREST UNTUK KLASIFIKASI DATA KELULUSAN MAHASISWA JAKARTA

research
  • 30 Aug
  • 2018

KOMPARASI ALGORITMA C4.5, NAIVE BAYES, DAN RANDOM FOREST UNTUK KLASIFIKASI DATA KELULUSAN MAHASISWA JAKARTA

Mengetahui tingkat kelulusan mahasiswa dalam institusi pendidikan sangatlah penting. Selain untuk menjaga kredibilitas institusi tersebut, juga berperan dalam menjaga rasio antara mahasiwa dengan dosen agar tetap dalam takaran yang tepat.Salah satu disiplin ilmu pengetahuan yang mempelajari metode untuk mengekstrak pengetahuan atau menemukan pola dari suatu data yang besar adalah Data Mining. Penelitian ini dilakukan dengan membagi data testing dan data training dengan perbandingan 10 : 90, 20 : 80, dan 30 : 70. Tujuan penelitian ini untuk mengkomparasikan algoritma C4.5, Naive Bayes, dan Random Forest dalam penentuan klasifikasi data kelulusan mahasiswa. Hasil penelitian menunjukkan bahwa secara keseluruhan algoritma C4.5 mempunyai akurasi paling besar jika dibandingkan dengan algoritma lainnya dengan tingkat akurasi sebesar 85.34% pada eksperimen pertama dan 89.06% pada ekperimen ketiga. Sedangkan pengukuran dengan menggunakan ROC curve, algoritma Naive Bayes menjadi algoritma yang mempunyai tingkat akurasi teringgi dibandingkan dengan algoritma C4.5 dan Random Forest dengan nilai AUC sebesar 0.925.

Unduhan

  • jurnal ades dkk(jurnal JMTP) 2018.pdf

    KOMPARASI ALGORITMA C4.5, NAIVE BAYES, DAN RANDOM FOREST UNTUK KLASIFIKASI DATA KELULUSAN MAHASISWA JAKARTA

    •   diunduh 1169x | Ukuran 270 KB

 

REFERENSI

Anggarwal, Charu C. (2015). Data Mining: The Textbook. New York: Springer.

Blaxter, L., Hughes, C., & Tight, M. (2010). How to Research (4th ed). Maidenhead: Open University Press.

Dawson, C. W. (2009). Projects in Computing and Information Systems a student’s guide. Harlow, UK: Addison-Wesley.

Gorunescu, Florin (2011). Data Mining: Concepts, Models, and Techniques. Verlag Berlin Heidelberg: Springer.

Han, J., &Kamber.,& Pei, J. (2012). Data Mining Consepts and Techniques. San Fransisco: Morgan Kauffman.

Maimon, O., & Rokach, L. (2010). Data Mining and Knowledge Discovery. Handbook. London: Springer.

Mantas, C. J., & Abellán, J. (2014). Credal-C4.5: Decision tree based on imprecise probabilities to classify noisy data. Expert Systems with Applications, 41(10), 4625–4637. doi:10.1016/j.eswa.2014.01.017.

Sammut, Claude. (2011). Encyclopedia of Machine Learning. Boston, MA: Springer.

Setiyorini, T., Pascasarjana, P., Ilmu, M., Tinggi, S., Informatika, M., Komputer,D. a N., & Mandiri, N. (2014a). Penerapan Metode Bagging UntukMengurangi Data Noise Pada Neural Network Untuk Estimasi Kuat TekanBeton Penerapan Metode Bagging Untuk Mengurangi Data Noise Pada NeuralNetwork Untuk, 1(1), 36–41.

Vercellis, C. (2009). Business Intelligence : Data Mining and Optimization for. Decision Making. John Wiley & Sons, Ltd.

W. C.-M. Liaw, Yi-Ching, Leou Maw-Lin, “Fast exact k nearest neighbors search using anorthogonal search tree,” Pattern Recognit., vol. 43, no. 6, pp.2351–2358, Feb. 2010.

Witten, I. H., Frank, E., & Hall, M. A. (2011).Data Mining: Practical Machine Learning and Tools. Burlington: Morgan Kaufmann Publisher.