Please use this identifier to cite or link to this item: https://repository.uksw.edu//handle/123456789/35687
Title: Implementasi Criterion pada Algoritma Decision Tree dan KNN untuk Klasifikasi Dataset Stroke
Authors: Juniar, Praditya Rizky
Keywords: Klasifikasi;Data Mining;Decision Tree;K-Nearest Neighbor
Issue Date: Oct-2024
Abstract: Penelitian ini melakukan klasifikasi dengan Decision Tree dan KNN pada dataset stroke untuk membandingkan akurasi dari kedua algoritma tersebut. Data mining adalah proses mencari pola atau informasi dengan memanfaatkan teknik atau metode tertentu. Klasifikasi digunakan untuk meramal kelas dari suatu objek yang tidak diketahui sebelumnya. Setiap algoritma atau metode klasifikasi mempunyai kelebihan dan kekurangan. Decision Tree kelebihannya terletak pada sifatnya yang mudah dibentuk, sedangkan kekurangannya yaitu tumpang tindih. Kelebihan dari metode KNN yaitu bisa diimplementasikan pada data yang besar secara sempurna dengan hasil yang tepat, sedangkan kekurangan yang dimiliki yaitu biaya yang dibutuhkan untuk komputasi sangat mahal karena memerlukan kalkulasi jarak dengan setiap parameter secara bersamaan. Hasil dari proses klasifikasi dari algoritma Decision Tree dan K-Nearest Neighbor memiliki nilai akurasi yang berbeda. Decision Tree dengan kriteria ‘entropy’ memiliki nilai akurasi 96.33%, Decision tree dengan kriteria ‘log_loss’ memiliki nilai akurasi 96.84%, Decision tree dengan kriteria ‘gini’ memiliki nilai akurasi 97.04% sedangkan algoritma K-Nearest Neighbor dengan kriteria ‘KneighborsClassifier’ memiliki tingkat akurasi 96.94% dan kriteria ‘RadiusNeighborClassifier’ memiliki tingkat akurasi 96.74%.
This study performs classification with Decision Tree and KNN on a stroke dataset to compare the accuracy of the two algorithms. Data mining is the process of finding patterns or information by utilizing certain techniques or methods. Classification is used to predict the class of an object that is not known beforehand. Each classification algorithm or method has advantages and disadvantages. Decision Tree's advantage lies in its easy-to-form nature, while its disadvantage is overlapping. The advantage of the KNN method is that it can be implemented on large data perfectly with precise results, while the disadvantage is that the cost required for computation is very expensive because it requires calculating the distance with each parameter simultaneously. The results of the classification process from the Decision Tree and K-Nearest Neighbor algorithms have different accuracy values. Decision Tree with 'entropy' criteria has an accuracy value of 96.33%, Decision tree with 'log_loss' criteria has an accuracy value of 96.84%, Decision tree with 'gini' criteria has an accuracy value of 97.04% while the K-Nearest Neighbor algorithm with 'KneighborsClassifier' criteria has an accuracy rate of 96.94% and 'RadiusNeighborClassifier' criteria has an accuracy rate of 96.74%.
URI: https://repository.uksw.edu//handle/123456789/35687
Appears in Collections:T1 - Informatics Engineering

Files in This Item:
File Description SizeFormat 
T1_672020302_Judul.pdf1.19 MBAdobe PDFView/Open
T1_672020302_Isi.pdf
  Until 9999-01-01
1.38 MBAdobe PDFView/Open
T1_672020302_Daftar Pustaka.pdf274.19 kBAdobe PDFView/Open
T1_672020302_Formulir Pernyataan Persetujuan Penyerahan Lisensi dan Pilihan Embargo.pdf
  Until 9999-01-01
1.57 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.