Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

【2017】 Synthesizing Obama: Learning Lip Sync from Audio #37

Open
Yongtae723 opened this issue Aug 13, 2019 · 0 comments
Open

【2017】 Synthesizing Obama: Learning Lip Sync from Audio #37

Yongtae723 opened this issue Aug 13, 2019 · 0 comments

Comments

@Yongtae723
Copy link

Yongtae723 commented Aug 13, 2019

ざっくり言うと

人が話しているAudioから、顔の動画を作製し、あたかもそのAudioを話している人
動画を作りだすAI
具体的な方法として
AudioをAIに学習させるためにAudioのデータをMFCCに変換する。
→MFCCの時系列データをRNNで学習し、唇をPCAで表現した時の主要成分の重みを学ぶ。
→Audioから作製した唇の画像と唇周辺の要素(顎、頬等)を組み合わせる
→最後の顔全体とback groundを合わせていかにもそれっぽいものを作る。

サンプル動画:https://www.youtube.com/watch?v=9Yq67CjDqvw
training dataとして、Obamaのスピーチを用いている。

キーワード

Audio to Face

1. 情報

論文リンク

https://grail.cs.washington.edu/projects/AudioToObama/siggraph17_obama.pdf

著者

SUPASORN SUWAJANAKORN

投稿日付

2017年

2. 先行研究と比べてどこがすごい?

3. 技術や手法のキモはどこ?

4. どうやって有効だと検証した?

5. 議論はある?

6. 次に読むべき論文は?

7. 実装の詳細

8. データセット

9. 結果の詳細

雑感&メモ

@Yongtae723 Yongtae723 changed the title 【】 【2017】 Synthesizing Obama: Learning Lip Sync from Audio Aug 13, 2019
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

1 participant