Please use this identifier to cite or link to this item:
https://repository.uksw.edu//handle/123456789/35687
Title: | Implementasi Criterion pada Algoritma Decision Tree dan KNN untuk Klasifikasi Dataset Stroke |
Authors: | Juniar, Praditya Rizky |
Keywords: | Klasifikasi;Data Mining;Decision Tree;K-Nearest Neighbor |
Issue Date: | Oct-2024 |
Abstract: | Penelitian ini melakukan klasifikasi dengan Decision Tree dan KNN pada dataset stroke untuk membandingkan akurasi dari kedua algoritma tersebut. Data mining adalah proses mencari pola atau informasi dengan memanfaatkan teknik atau metode tertentu. Klasifikasi digunakan untuk meramal kelas dari suatu objek yang tidak diketahui sebelumnya. Setiap algoritma atau metode klasifikasi mempunyai kelebihan dan kekurangan. Decision Tree kelebihannya terletak pada sifatnya yang mudah dibentuk, sedangkan kekurangannya yaitu tumpang tindih. Kelebihan dari metode KNN yaitu bisa diimplementasikan pada data yang besar secara sempurna dengan hasil yang tepat, sedangkan kekurangan yang dimiliki yaitu biaya yang dibutuhkan untuk komputasi sangat mahal karena memerlukan kalkulasi jarak dengan setiap parameter secara bersamaan. Hasil dari proses klasifikasi dari algoritma Decision Tree dan K-Nearest Neighbor memiliki nilai akurasi yang berbeda. Decision Tree dengan kriteria ‘entropy’ memiliki nilai akurasi 96.33%, Decision tree dengan kriteria ‘log_loss’ memiliki nilai akurasi 96.84%, Decision tree dengan kriteria ‘gini’ memiliki nilai akurasi 97.04% sedangkan algoritma K-Nearest Neighbor dengan kriteria ‘KneighborsClassifier’ memiliki tingkat akurasi 96.94% dan kriteria ‘RadiusNeighborClassifier’ memiliki tingkat akurasi 96.74%. This study performs classification with Decision Tree and KNN on a stroke dataset to compare the accuracy of the two algorithms. Data mining is the process of finding patterns or information by utilizing certain techniques or methods. Classification is used to predict the class of an object that is not known beforehand. Each classification algorithm or method has advantages and disadvantages. Decision Tree's advantage lies in its easy-to-form nature, while its disadvantage is overlapping. The advantage of the KNN method is that it can be implemented on large data perfectly with precise results, while the disadvantage is that the cost required for computation is very expensive because it requires calculating the distance with each parameter simultaneously. The results of the classification process from the Decision Tree and K-Nearest Neighbor algorithms have different accuracy values. Decision Tree with 'entropy' criteria has an accuracy value of 96.33%, Decision tree with 'log_loss' criteria has an accuracy value of 96.84%, Decision tree with 'gini' criteria has an accuracy value of 97.04% while the K-Nearest Neighbor algorithm with 'KneighborsClassifier' criteria has an accuracy rate of 96.94% and 'RadiusNeighborClassifier' criteria has an accuracy rate of 96.74%. |
URI: | https://repository.uksw.edu//handle/123456789/35687 |
Appears in Collections: | T1 - Informatics Engineering |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
T1_672020302_Judul.pdf | 1.19 MB | Adobe PDF | View/Open | |
T1_672020302_Isi.pdf Until 9999-01-01 | 1.38 MB | Adobe PDF | View/Open | |
T1_672020302_Daftar Pustaka.pdf | 274.19 kB | Adobe PDF | View/Open | |
T1_672020302_Formulir Pernyataan Persetujuan Penyerahan Lisensi dan Pilihan Embargo.pdf Until 9999-01-01 | 1.57 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.