Macho000

T5結果

picture 1

Raffel, Colin, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. “Exploring the limits of transfer learning with a unified text-to-text transformer.” J. Mach. Learn. Res. 21, no. 140 (2020): 1-67.

BART結果

picture 2

Lewis, Mike, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer. “Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension.” arXiv preprint arXiv:1910.13461 (2019).

比較

SQuADではBARTモデルのほうが良い結果

しかし、MNLI,SSTといったタスクではT5モデルのほうが良い結果

→タスクによってT5が良かったり、BARTが良かったりする

#言語モデル