Danh mục

Pre-training and fine-tuning ELECTRA models for various Vietnamese natural language processing tasks

Số trang: 7      Loại file: pdf      Dung lượng: 246.07 KB      Lượt xem: 17      Lượt tải: 0    
tailieu_vip

Hỗ trợ phí lưu trữ khi tải xuống: 1,000 VND Tải xuống file đầy đủ (7 trang) 0

Báo xấu

Xem trước 2 trang đầu tiên của tài liệu này:

Thông tin tài liệu:

In recent years, the Natural Language Processing community was impacted greatly by models based on the BERT architecture (Devlin et al., 2018). The Transformer-based Masked Language Model (MLM) has yielded significant improvement on many Natural Language Processing problems. However, it requires huge computing power and makes pre-training models a resource-consuming process.
Nội dung trích xuất từ tài liệu:
Pre-training and fine-tuning ELECTRA models for various Vietnamese natural language processing tasks

Tài liệu được xem nhiều: