-
Notifications
You must be signed in to change notification settings - Fork 1
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[2021] FINETUNED LANGUAGE MODELS ARE ZERO-SHOT LEARNERS #60
Labels
NLP
Natural Language processing
Comments
7. 実装の詳細
|
9. 結果の詳細
|
雑感&メモ
|
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
ざっくり言うと
GPT-3などのzero-shotで使われているpromptingの考えと、pretrain-finetuneの考えを組み合わせた"instruction tuning"を提案した。"instruction tuning"は入力文内にタスク内容の説明文を含める学習方法で、タスクの説明文からその問題の解き方を学習させたいという意図がある。結果としてzero-shotの精度を向上させ、多くのタスクにおいてGPT-2のzero-shotモデルを超え、一部ではGPT-3のfew-shot学習モデルをも超えた。
キーワード
1. 情報
論文リンク
https://arxiv.org/abs/2109.01652
著者
Jason Wei, Maarten Bosma, Vincent Y. Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, Quoc V. Le
Google Research
投稿日付
2021/10/5
2. 先行研究と比べてどこがすごい?
3. 技術や手法のキモはどこ?
4. どうやって有効だと検証した?
5. 議論はある?
6. 次に読むべき論文は?
The text was updated successfully, but these errors were encountered: