TABIIY TILNI QAYTA ISHLASHDA BERT MODELINING AMALIY QO‘LLANILISHI
Keywords:
Kalit so‘zlar: BERT, NLP, sun’iy intellekt, transformer, tabiiy tilni qayta ishlash, semantik tahlil, mashinaviy o‘qitish, deep learning, contextual embedding, O‘zbek tili, AI model.Abstract
Annotatsiya: Ushbu maqolada tabiiy tilni qayta ishlash (NLP) jarayonida
BERT (Bidirectional Encoder Representations from Transformers) modelining
nazariy asoslari va amaliy qo‘llanilishi keng tahlil qilinadi. Maqolada modelning
arxitekturasi, uning oldingi tahlil usullaridan farqi, mashinaviy o‘qitishdagi
afzalliklari hamda BERT asosida yaratilgan amaliy tizimlar haqida batafsil ma’lumot
beriladi. Shuningdek, maqolada O‘zbek tili uchun BERT modelini moslashtirish
bo‘yicha ilmiy istiqbollar, ma’lumotlarto‘plamlari bilan ishlashda yuzaga keladigan
muammolar va ularni hal etish strategiyalari yoritilgan.
References
FOYDALANILGAN ADABIYOTLAR:
1. Devlin, J. et al. (2018). BERT: Pre-training of Deep Bidirectional
1. Transformers for Language Understanding.
2. Vaswani, A. et al. (2017). Attention is All You Need. NeurIPS
3. Conference.
4. Wolf, T. et al. (2020). Transformers: State-of-the-Art NLP Models.
5. Rahmatov A. (2023). O‘zbek tilida NLP modellarining rivoji.
6. Toshkent: Innovatsiya nashriyoti.
7. 5. HuggingFace Research Center. (2024). UzBERT: Multilingual
8. Adaptation.