roberta

AI・機械学習

【論文解説】Don’t Stop Pretraining – 追加で事前学習を行う効果について

今回は、RoBERTaを使って、さらなる事前学習することによる効果を分析している“Don't Stop Pretraining: Adapt Language Models to Domain and Tasks”という論文を解説したいと...
タイトルとURLをコピーしました