情報処理学会 第81回全国大会 day2

Share on:

2日目は画像編集/GAN学習支援システム(2)に参加してきました。


[ 4R-02 アニメ画像を対象にした複数のスタイル画像を用いる画風変換の検討 ]

 NAL研M1西山くん発表。前回よりも質問コメント多く貰えてたので、目の付け所は面白いのだろうと思います。主な質問は以下の通り。
 Q: 変換結果良さそうに見えるが、数値的な評価は?
 Q: before/afterが見たい。どれぐらいアウトプットが変わるのか。例えば空だけを入れた場合にどうなる?
 Q: 4パッチ作る時のスタイル画像の位置によってアウトプットのイメージが変わる?
 Q: 従来手法の枠組み内で解こうとしているが、中身に手を入れる方が良いのでは? 例えば1枚入れて変換して、良くない場所は再変換or別変換するとかカスケード処理にするとか。


[ 4R-04 Deep Learning向けData Augmentationの評価手法の提案-Fréchet Inception Distanceに基づく方法- ]

 個人的に今日一番面白かった発表。機械学習する際にデータ不足やバランスの悪さがネックで学習が上手くいかないことが多々あります。これに対する一つのアプローチが「データ拡張」なんですが、拡張方法が多数提案されていること自体はともかく、どういうタスクにおいてどういう手法が向いているかも「やってみないとわからない」。そこをなんとかしたいという切り口で、「学習する前に拡張方法の良し悪しを見積もれないか」ということでFréchet Inception Distanceに基づいた検証を行ってみたという話。
 今回やってみた範囲内では比較的良好(かなり相関が高い)な結果が得られてるらしいけど、そもそものサンプル数が少ないケースでは過学習しそうなアプローチなんだよな。でも考え方はとても好きです。


[ 4R-07 Pix2Pixを用いた古典籍くずし字画像の裏抜け除去 ]

 今日2番目に好きな発表。「文字の芸術的品質とは何か?」という疑問に対して「主観的でわからないなら機械学習したら良いじゃない」的な考え方で取り組んだという話。
 実際問題として、データの与え方やモデルに依存する部分はあるとしても、一定程度の「芸術的品質」を抽出することはできるのだと思います。一つ一つの作品だけでもなく、同年代他作品との比較や、古い作品との比較から「何に影響を受けているか」とかもある程度は見積もれるようになるじゃないかな。それを人間が理解できる形で説明して欲しいよね。


[ 5ZH-05 ゼミ議事録と研究成果物の蓄積と利用の支援システムの開発 ]
 同じことやりたいと思ってて聞いてみたのですが、記録、特にメタデータの部分は人手で作成しているらしい。そこ自動化したいんだけどな。ある程度蓄積した後で自動化目指せば良いというスタンスなのかもしれないし、そこは自動化すべきではない(その過程自体に学びなどの効果がある)というスタンスかもしれないですが。
 ゼミに限らず「小さなコミュニティ」でありがちですが、「その場で通じる略語等の特殊な単語」というのがかなりあって。その辺りはword2vecとかと相性悪そうなんですが、一度wikipediaなりで学習済みモデルをベース+固定にして、層追加学習するだけでもなんとかなるのかしら。