SUN'IY NEYRON MODELI
Keywords:
Kalit Soʻzlar: Sun’iy Neyron, Neyron Tarmoqlar, Aktivatsiya Funksiyasi, Og‘irliklar, Bias, Perceptron, Chuqur O‘rganish, Axborotni Qayta Ishlash.Abstract
ANNOTATSIYA: Ushbu ilmiy maqola sun’iy intellektning fundamental
komponenti hisoblangan Sun’iy Neyron Modeli ning nazariy asoslari, matematik
mexanizmlari va zamonaviy neyron tarmoqlaridagi ahamiyatini chuqur tahlil qilishga
bag‘ishlangan. SNM inson miyasining biologik neyronlaridan ilhomlanib yaratilgan
bo‘lib, u axborotni qabul qilish, qayta ishlash va uzatishning asosiy operatsiyalarini
modellashtiradi. Tadqiqotda SNM ning asosiy strukturaviy elementlari – kirish
og‘irliklari (weights), qo‘shish funksiyasi (summation function), aktivatsiya funksiyasi
(activation function) va bias (siljish) parametri atroflicha yoritiladi. Maqola,
shuningdek, SNM ning turli xil aktivatsiya funksiyalari (masalan, Sigmoid, ReLU,
Tanh) orqali chiziqli va chiziqsiz transformatsiyalarni amalga oshirish qobiliyatini va
uning o‘rganish jarayonidagi, xususan, teskari tarqalish (backpropagation)
algoritmidagi markaziy rolini nazariy jihatdan asoslaydi. Tadqiqotimiz SNM ning
nafaqat klassik Perceptron modelidan, balki zamonaviy Chuqur O‘rganish (Deep
Learning) arxitekturalaridan ham ajralmas bo‘lgan asosiy qurilish bloki ekanligini
isbotlaydi.
References
1. McCulloch W S, Pitts W. A logical calculus of the ideas immanent in nervous
activity. Nerv faoliyatida mavjud gʻoyalarning mantiqiy hisobi. The Bulletin of
Mathematical Biophysics jurnali.
2. Rosenblatt F. The perceptron: a probabilistic model for information storage and
organization in the brain. Perceptron: miyada axborotni saqlash va tashkil etish
uchun ehtimoliy model. Psychological Review jurnali.
3. Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-
propagating errors. Xatoliklarni teskari tarqatish orqali vakilliklarni oʻrganish.
Nature jurnali.
4. Lecun Y, Bottou L, Bengio Y, Haffner P. Gradient-based learning applied to
document recognition. Hujjatlarni tanishga qoʻllaniladigan gradientga asoslangan
oʻrganish. Proceedings of the IEEE jurnali.
5. Glorot X, Bengio Y. Understanding the difficulty of training deep feedforward
neural networks. Chuqur oldinga yoʻnaltirilgan neyron tarmoqlarni oʻqitish
qiyinchiligini tushunish. International Conference on Artificial Intelligence and
Statistics materiallari.
6. Nair V, Hinton G E. Rectified linear units improve restricted boltzmann machines.
Tuzatilgan chiziqli birliklar cheklangan Boltzmann mashinalarini yaxshilaydi.
International Conference on Machine Learning materiallari.
7. Hochreiter S, Schmidhuber J. Long short-term memory. Uzoq muddatli qisqa
muddatli xotira. Neural Computation jurnali.
8. Goodfellow I, Bengio Y, Courville A. Deep Learning. Chuqur oʻrganish. MIT
Press.