GRADIENT TUSHISH ALGORITMI
Keywords:
Kalit so‘zlar: gradient tushish, algoritm, optimallashtirish, yo‘qotish funksiyasi, learning rate, SGD, Adam, konvergentsiya.Abstract
Mazkur tezisda gradient tushish algoritmining mohiyati, matematik asoslari,
uning turlari va zamonaviy modifikatsiyalari tahlil qilingan. Algoritmning
optimallashtirish jarayonida yo‘qotish funksiyasini minimallashtirishdagi o‘rni,
o‘qitish tezligi (learning rate) ta’siri hamda konvergentsiya xususiyatlari ko‘rib
chiqiladi. Shuningdek, mashinani o‘qitish va sun’iy intellekt modellarida keng
qo‘llaniladigan Adam, RMSProp va Momentum kabi adaptiv optimizatorlar bilan
taqqoslash keltiriladi.
References
Foydalanilgan adabiyotlar
1. Bekmuratov Q.A. , Sun’iy intellekt va neyron tarmoqlar. O‘quv qo‘llanma,
Samarqand – 2021.
2. Sadullayeva SH.A, Yusupov D.F., Yusupov F., Sun’iy intellect va neyronto‘rli
texnologiyalar. O‘quv qo‘llanma, Urganch – 2021.
3. H.N.Zayniddinov, T.A.Xo‘jaqulov, M.P.Atadjanov, “Sun’iy intellekt” fanidan
o‘quv qo‘llanma, Toshkent – 2018.
4. Ruder S. “An overview of gradient descent optimization algorithms”, 2016.
5. https://medium.com/data-science/a-visual-explanation-of-gradient-descent-
methods-momentum-adagrad-rmsprop-adam-f898b102325c (Gradient tushish
variantlarining vizual va intuitiv tushuntirishi)
6. https://en.wikipedia.org/wiki/Backpropagation — Wikipedia sahifasi,
nazariyasi va tarixi.