かゆいところに手が届かない(物体認識 vs 言語処理)
機械学習なお話。
物体認識周りだと、
「入力された画像に写り込んでいる物体は何か」をカテゴリ識別問題として設定したりする。だけど普通は写真には複数物体が写ってることが自然だよねということで、画像を小さなエリアに分割してエリア毎にカテゴリ識別したり、領域抽出自体も自動化したりといったことがやられています。
メディアとしては全く違うのだけれども、「文章」に対してもそういうことやりたいな、と。例えば、この記事は、記事全体としてはハウツーとか教育・勉強法・プログラミングあたりのカテゴリに分類してくれて良いです。だけどそれだけじゃなくて、より詳細に
- 「ちゃんと聞いてる学生もいる一方で、解説中に寝る学生も増えてきた気がする」という部分が学生に対する感想である。
- 「ファイル読み込みで戸惑ってる学生がちらほら」いるのは事実である。
- より具体的には「教科書かなにかを振り返って参照できない」ケースがある。
みたいなことを抽出したいなと。
アンケートやレビュー分析の一種と考えてもよいのだけど、上記は一例に過ぎなくて特化した抽出器では不十分。特化した個々の手法ではなく汎用的なアプローチをベースとして、抽出したい対象を例示等して指定する形にしたい。
似たような話としてはトピックモデルがあるのだけど、これは基本的には「教師なし学習」。なので、特徴ベクトルの作り方で頑張れなくはないだろうけど、こちらの意図を盛り込むことがしづらい。
京都テキスト解析ツールキット(KyTea)は、単語分割と銘打ってはいるけれども比較的汎用性が高くて、「読み」を中心としたマーカーをうまく設定できれば何とかなりそうな予感。(推測ですらなく妄想レベルでの予感なんだけど)
物体認識でいうところの「領域抽出+物体識別」なタスクを、文章に対してうまいこと盛り込めないものかなぁ。