TABIIY TILNI QAYTA ISHLASHDA BERT MODELINING AMALIY QO‘LLANILISHI

Authors

  • Rasulov Omadbek Rustam o`g`li Author

Keywords:

Kalit so‘zlar: BERT, NLP, sun’iy intellekt, transformer, tabiiy tilni qayta ishlash, semantik tahlil, mashinaviy o‘qitish, deep learning, contextual embedding, O‘zbek tili, AI model.

Abstract

Annotatsiya:  Ushbu  maqolada  tabiiy  tilni  qayta  ishlash  (NLP) jarayonida 
BERT  (Bidirectional  Encoder  Representations  from  Transformers)  modelining  
nazariy  asoslari  va  amaliy  qo‘llanilishi  keng  tahlil  qilinadi. Maqolada modelning 
arxitekturasi,  uning    oldingi    tahlil    usullaridan    farqi,  mashinaviy  o‘qitishdagi 
afzalliklari hamda BERT asosida yaratilgan amaliy tizimlar haqida batafsil ma’lumot 
beriladi.  Shuningdek,  maqolada  O‘zbek  tili  uchun  BERT  modelini  moslashtirish 
bo‘yicha ilmiy istiqbollar, ma’lumotlarto‘plamlari bilan ishlashda yuzaga keladigan 
muammolar va ularni hal etish strategiyalari yoritilgan. 

References

FOYDALANILGAN ADABIYOTLAR:

1. Devlin, J. et al. (2018). BERT: Pre-training of Deep Bidirectional

1. Transformers for Language Understanding.

2. Vaswani, A. et al. (2017). Attention is All You Need. NeurIPS

3. Conference.

4. Wolf, T. et al. (2020). Transformers: State-of-the-Art NLP Models.

5. Rahmatov A. (2023). O‘zbek tilida NLP modellarining rivoji.

6. Toshkent: Innovatsiya nashriyoti.

7. 5. HuggingFace Research Center. (2024). UzBERT: Multilingual

8. Adaptation.

Published

2025-12-14

How to Cite

Rasulov Omadbek Rustam o`g`li. (2025). TABIIY TILNI QAYTA ISHLASHDA BERT MODELINING AMALIY QO‘LLANILISHI . TADQIQOTLAR, 76(2), 215-219. https://journalss.org/index.php/tad/article/view/10269