Please use this identifier to cite or link to this item: https://repository.uksw.edu//handle/123456789/27967
Title: Pengembangan Stochastic Gradient Descent Dengan Penambahan Variabel Tetap
Authors: Adimas Tristan Nagara Hartono
Keywords: SGD;Modifikasi;performa
Issue Date: 29-Nov-2022
Abstract: Stochastic Gradient Descent (SGD) adalah salah satu dari optimizer yang sering digunakan dalam deep learning, maka dari itu dalam penelitian ini akan melakukan sebuah modifikasi terhadap Stochastic Gradient Descent (SGD). Stochastic Gradient Descent (SGD) masih dirasa dapat dikembangkan maka dalam artikel ini akan mencoba untuk mengembangkannya. Hasil penelitian adalah menunjukan dampak dari penambahan variabel tetap terhadap performa Stochastic Gradient Descent (SGD). Disayangkan hasil dari penambahan variabel tetap belum bisa untuk meningkatkan Stochastic Gradient Descent (SGD) menjadi lebih baik.
Stochastic Gradient Descent (SGD) is one of the optimizers that is often used in deep learning, therefore in this study a modification will be made to the Stochastic Gradient Descent (SGD). Stochastic Gradient Descent (SGD) can still be developed, so this article will try to develop it. The results of this study are to show the impact of adding fixed variables on Stochastic Gradient Descent (SGD) performance. It's a pity that the results of adding fixed variables cannot improve the Stochastic Gradient Descent (SGD) for the better.
URI: https://repository.uksw.edu//handle/123456789/27967
Appears in Collections:T1 - Informatics Engineering

Files in This Item:
File Description SizeFormat 
T1_672018063_judul.pdf1.71 MBAdobe PDFView/Open
T1_672018063_Isi.pdf
  Restricted Access
1.18 MBAdobe PDFView/Open
T1_672018063_Daftar Pustaka.pdf536.42 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.