T5(Text-To-Text Transfer Transformer) とは
- 事前学習における入出力を文に統一してしまうことで、 複数の形式の問題に対しても適応できる様式となった。
- モデルの基本構造としては Transformer が使われており、その点はBERTと共通している。
- 事前学習の形式をすべてテキストによる指定にするというアイデアはGPT-3などでも用いられている。
- 0 shot learning など入力文で模範解答例を入力するだけで、出力を操作するということも行われている
- “操作の指定:入力文1、出力に期待する文、操作の指定:入力文2"で、“出力文2"が得られるという次第
できること
- 下流のタスクとして転移学習を行うことで以下のようなことが実行できる。
- 文書分類
- タイトル生成
- 文章生成
- 生成要約
生成要約の例
- 一つの原文から2種類の要約文を生成するファインチューニングが思いの外うまく働いた。
データとしては
[Read More]