言語処理学会第19回年次大会(NLP2013) 1日目終了
NLP2013の本会議1日目が終了しました。NAL研的には堀川くんの発表が終わり、一応これで学生の発表は終わったということで打ち上げ的に和食まるやにて鰻三昧(卵巻き、巻き寿司、ひつまぶし)してきました。twilogだとこんな感じ。
オープニングでの話によると、今回は「論文賞受賞者による講演」を予定しているらしい。ということで、受賞者だけは最初に紹介されてました。
イベント的には一杉先生の招待講演「脳は計算機科学者に解明されるのを待っている − 機械学習器としての脳 −(PDF)」が面白く、個人的には、細胞分裂や細胞の生死を含めたモデルとして現象再現できるように構築できるのかが気になります。この記事内でメモも残していますが、素直に一杉先生が用意しているサイトを眺めた方がイメージも掴めるし、参考資料も揃ってますのでお勧め。曰く、NNとの違いは以下のようになるらしい。
(脳とベイジアンネットFAQより抜粋)
- 入力されるものも出力されるものも「値」ではなく「値の確率分布」です。
- 推論時の情報の流れが「入力から出力へ」という一方向ではなく、双方向です。 すべてのノードが入力ノードにも出力ノードにもなり得ます。
- 推論時の情報の伝達は一度ではなく、ネットワーク全体に 情報が繰り返し伝播します。
午後は通常セッションx3で、ずっとIB015会場に参加してました。個人的に視点が面白いなと感じたのは、B1-1のカテゴリ情報を利用した商品名自動抽出とB3-3の対をなす二文書という関係を利用した文対応推定です。別の意味ではB2-3のWatson使って正誤判定させるのオマケとして出てきた「文のどこが間違っているのかを示唆できる」はナルホドと思いました。
ディープな話では脳みそパンクしてしまって付いていけてない発表が多かったので、誤解して書いてるメモや討論内容が多いかと思います。ご注意ください。
P.S.
機能のチュートリアルの研究者流コーディングの極意(東北大学・岡崎先生)は資料が公開されたらしい。
目次
オープニング
新しい試み
オープニング
口頭発表とポスターの比率
228:115(2012) -> 118:128(2013)
口頭発表
6パラレル->4パラレル
招待論文講演
招待講演1:「脳は計算機科学者に解明されるのを待っている − 機械学習器としての脳 −」 一杉 裕志 (産総研)
計算論的神経科学の現状
従来の脳のモデル:限定された特定データを説明するだけのモデル
ベイジアンネットを使った大脳皮質のモデル
脳の認識と学習の基本原理に迫る、適用範囲の広いモデル
脳とベイジアンネット
役立つロボットに必要な能力
自律的に知識を獲得/自然言語を通じて知識伝達可能/幅広い状況に知識を応用
脳に関する誤解
脳についてまだほとんど何も分かっていない->すでに膨大な知見がある(確定的でなければ)
脳は計算機と全く違う情報処理をしている->脳はとても普通の情報処理装置である
脳はとても複雑な組織である->心臓等に比べれば複雑だが、以外と単純(人間の手におえる範囲という意味で)
計算量が膨大すぎてシミュレーションできない->ヒトの脳全体でもすでに可能
労働力としては人間よりも高くつく->将来は人間よりもコストが低くなる
大脳皮質に関する神経科学的知見
領野約50個/マクロコラム約100万個/ミニコラム約1億個/ニューロン約100億個/シナプス約100兆個
各領野の機能、接続構造はかなり明らかになりつつあるが、具体的な情報処理原理は不明
階層構造、下の領野ほど抽象度が低い処理
非対称の相互結合
高次領野低次領野
ニューロン単体は、内積計算のような単純な演算しか行えない
大脳皮質の不思議さ:たった50個程度の領野のネットワークで高次機能(認識/意思決定/etc.)を実現
ベイジアンネット
ベイズの定理:結果から原因を推定
脳の認識も、結果からの原因の推定
しかし、ベイズを使った計算は普通は計算量がとても多い(指数関数的)
効率的推論を可能にする多くの技術
MCMC/変分ベイズ/ベイジアンネットなど
確率変数間の因果関係をグラフで効率的に表す知識表現の技術(≒直感・連想記憶と似た動き)
機能的構造的類似性
トップダウンとボトムアップの非対称接続
局所的かつ非同期的な情報のやり取り等
[Chikkeur, Serre, Tan and Poggio 2010] のモデル
既存の複数モデルを統合(個々モデルで再現していた複数の現象を1モデルで再現)
視覚の機能を再現するだけではなく、機能ではない現象も再現できる
注意とニューロン応答の関係再現 [Reynolds and Heeger 2009]
近似確率伝搬アルゴリズム [Ichisugi 2007]
解剖学的特徴、接続関係、非対称接続的な類似
ベイジアンネットの学習 [Hosoya 2012]
一次視覚野、2次視覚野の応答特性の再現
大脳皮質がある種のベイジアンネットであることはまず間違いない
前提とする2つの知見
大脳皮質の1つのマクロコラムは、1つのSOMのようなものらしい
上位領野のマクロコラムは、下位マクロコラムの影響を受ける
SOMの階層はほぼ必然的にベイジアンネットになる [Ichisugi 2007]
BESOM
時間系列のある学習:階層間での時間遅れ再帰
運動野:(状態,行動)対の強化学習
BESOMを使った言語屋モデルの構想
大脳皮質を再現するために必要だと思われる主要モデル
ベイジアンネット/自己組織化マップ/独立成分分析/強化学習
言語の専門家の方々に教えて頂きたいこと
言語屋に作り込まれている事前分布に関するヒント
「言語現象」にはどういうものがあるのか
言語の学習・理解にどういうバイアスがあるか
naltoma: ベイジアンネットで目指している幅広さは分かるが、
脳に限定している点ではまだ不十分では?
naltoma: 計算量的にはシミュレーション可能とのことだが、
化学物質による伝達レベルで再現できるレベル?
naltoma: 相反するような現象も再現できるという点では、
意識的な処理と無意識的な処理が同居できるモデルとしても解釈できる?
naltoma: BESOMのような構造が正しいとして、
このような構造をゲノムレベルではどのような設計図として埋め込まれているのだろう?
naltoma: 人工生命的な視点でいうところの細胞分裂なレベルからBESOMのようなモデルを
構築していくことと、細胞の死滅を含めた頑健性はどうやったあらうまく再現できるのだろう?
Q: 大脳の特徴としてグリア細胞の多さがあると思うが、小脳には殆どない。
脳がベイジアンネットだとした場合、グリア細胞は何をしているのだろうか。
A: グリア細胞は物理的に神経細胞を支えていて、神経学論的には無視されている。
ただし、一部関わっているという話もでてきている。
現時点ではモデルに取り込んでいない。
Q: 感情を作り込むという話があったが、感情を機械学習のレベルで言うとどういうイメージか?
A: 大脳皮質には直接関わりない。
快と不快の情動に分けて強化学習として不快に関わることを避けるように学習。
Q: 十分な学習事例があればベイジアンネットで動くと思うが、
人間の場合はそうではないように思う。そこはどう結びついているのか。
A: 統計的機械学習がうまくいくためには膨大な入力が必要という意見は多い。
しかし、入力データが少なくても良い事前分布を与えると良い汎化能力を
発揮するというのがベイジアンネット。
応用の際には「じゃぁ適切な事前分布とは何か?」という話になる。
領野毎に適した事前分布が作り込まれていると考えている。
最初から何でも適した事前分布を作り込むというのではなく、例えば「日本語」
を学ぶためにという特化した分布ではなく、言語に共通した分布が必要だろう。
Q: チャートパーサの例では、言語研究者としては分割して係り受け解析してと
考えていきがち。ヒトは入力条件が違うように思うが、どう考えているか。
A: 視覚については局所的に特徴抽出し、一つ上の領野ではより広い範囲での特徴抽出。
DeepLearningもそう。そういうことがやられているのでは。
Q: 画像全体を取り込むが、ヒトの場合は焦点が動いていく。
A: 視点移動があっても外界が激しく動いているとは「ヒトは」解釈しない。
視点を激しく動かしていても上の領野では時間的に積分した統合された情報として
処理されていると思う。
Q: ベイジアンネットと一般に言われるNNと何が違うか。
A: NNは一方向、入力があって出力がある。
ベイジアンネットは上から下、下から上への処理が繰り返され、収束する。
収束結果が事後確率となる。
Q: リカレントとは違う?
A: ベイジアンネットでは全てのノードが入力にも出力にもなる。
Q: 脳モデルを作ったとして、どう評価する?
A: 一つは、機械学習モデルとして性能の高さを評価する。DeepLearningはその例。
もう一つは、神経科学的な尤もらしさを評価する。
神経科学的な現象を再現できれば、尤もらしさを評価できる。
Q: 世界の数十言語を調べた人は、60の組み合わせで全てを表現できると主張している人がいる。
Q: 体験したことが無いことを組み合わせて表現するというものがヒトにはありそうだが。
A: 広い意味での汎化能力だと思う。
「黄色い車」における「黄色」のような色と「車」という物体のように
分解して記憶しておけば組み合わせられる。
Q: 特徴コラムを表す際、犬を見て「犬だと思う」特徴と「ネコじゃないな」という特徴もありそう。
言語でも一緒だと思うが、どうか。
A: 今の例で言えばネコ以外にもいっぱいって、その確率分布で表現できるのかも。
Q: 情報の足し算みたいなことを「ネコ+野良じゃない」とかができる?
そういうことを表現できるデータ構造であることが重要だと思う。
A: かなり複雑なことを表現できると思うが、万能だとは思っていない。
表現能力は高いのでできても不思議ではない。
Q: ベイジアンネットというと予め構造や条件確立票をデータから学習しておき、
推論に使うという理解。ヒトでは学習/推論は自由に切り替えられる。
BESOMでもそれは表現可能?
A: 生物の場合は常に連続的に繰り返している。
B1:情報抽出(1), 座長: 山田 一郎(NHK)
B1-1 カテゴリ情報を利用したblog記事からの商品名自動抽出 (pp.3-6), ◎渡邊尚吾, 乾孝司, 山本幹雄(筑波大)
商品についての情報収集
レビューサイト/blog上のレビュー(到達までに手間)
blog記事からレビューサイト構築:記事同定+記事と商品の対応付け
手掛かり「商品名」を抽出
疑似教師データ:商品名の特徴を利用して自動収集
レビュー記事の特徴:話題をカテゴリ名で代用することが多い(iPhone 4S -> スマホ)
疑似教師データ:カテゴリ名にタグ付け->前後の文脈を学習
「理想的な教師データ」と似た文脈
カテゴリ名だけで収集してタグ付け可能
naltoma: カテゴリ名で代用して書かれる文と、商品名を特定して書かれる文には
異なる特性が含まれないか? 商品名抽出できれば十分? 抽出しにくい商品名はない?
(抽出できる教師データには大きな偏りが存在しないか?)
naltoma: カテゴリ名で書かれにくい商品は無い?
Q: 辞書で抽出していたが、取れないパターンは?
A: 文脈からとっているため、辞書に載っていないからという理由ではない。
辞書では表記が揺れているもの、例えば「iphone」をカタカナで書いてると抽出できない。
Q: 文脈でというのが面白い。レビュー文対象だが、レビューだからこそという特徴は?
レビューだと商品評価、商品名が分かっているものが対象になっていると思う。
ただし提案手法ではカテゴリになっている。レビューとしては意味無いのでは?
A: アイデアとして疑似教師データがまずあった。
仰る通り、レビューに現れる文脈とカテゴリが現れる文脈には違いがある。
似ている文脈があるという前提で進めてみた。
Q: 対象をweb全体ではなくレビューだけで疑似教師データを作ったら、
もっと精度は上がるのか? そういう気がした。
A: やってみないと分からない。
Q: 商品名以外のものは今回は対象外のようだが、商品名でも問題になる事があるのでは。
例えば、「スマホを選ぶ」ぐらいの文脈だと問題になるような。
そういうのが疑似教師データの質を下げているのでは。
A: 現状、そういうのも含めたノイズが多いのが問題。
B1-2 商品説明文からの属性・属性値の自動抽出 (pp.7-10), ○新里圭司, 関根聡(楽天)
良いUXを提供するために商品情報の構造化が重要(説明文->属性・属性値に構造化)
教師無し学習に基づく情報抽出 [Mintz+ 2009]
問題点:(Wikipedia等に基づいた)知識ベースでは、ユーザが注目する属性と異なることがある
知識ベースを自動構築したい
HTMLタグ+正規表現による属性&属性値抽出
仮説に基づく注釈誤り&抽出漏れ修正
属性値抽出モデルの構築@CRF
naltoma: 抽出失敗の中でも抽出漏れよりは誤抽出の方がクリティカルだと思うが、
どのように質を担保するのか?
Q: wikipediaやinfoboxでのワインは駄目だという話があったが、
それに対して自動構築している部分について、既存商品についての属性情報を使う?
それは結局既知のデータを使っていることと同じに見えるが、何が違う?
A: 属性名の表記揺れを解決している点。
Q: 抜本的に構造が違うものにも適用できそうか?
商品であればある程度収束しそうだが、属性分類の視点が違うケースとか。
A: 一部違った分類をしているページはあるが、多くは同じような視点でまとめられていた。
Q: ストップワードの決め方は?
知識ベースで作る時に「これはいらない」という判断をどうしているのか。
A: 抽出したい属性があり、それに属さないもの、明らかにユーザが注目しないだろうというものを登録している。
汎用的な知識ベースではなく、特化した知識ベース。
B1-3 文字種と画数を用いた未知若者語の抽出 (pp.11-14), ◎秋田恭佑, 松本和幸, 北研二(徳島大)
辞書への登録が追いつかない「俗語」や「若者語」
コミュニティ外の人には理解できない
情報取得の妨げとなる可能性
若者語を精度良く抽出したい
若者語の生成過程に注目:文字そのものに若者語らしさが存在するはず
事前分析
カタカナ・平仮名を含みやすい
漢字については画数の少ないものを用いやすい
条件付き確率場CRFでラベル推定
naltoma: 若者語と俗語を分ける基準は何かある?
naltoma: 正解データはどうやって用意した?それは「その調査した人たちに特化した俗語」では?
naltoma: 網羅性を高くしたい?
Q: 若者語の話をする時にスマホとかでたが、
twitter/2chいろいろあるどういったリソースを対象にしているのか。
コミュニティと性別で傾向が大きく変わるのでは。
A: 若者語コーパスはweb上からランダムに収集し、人手ピックアップして構築。
Q: 特定メディアには拘っていない?
A: その通り。
Q: カジュアルワードとかフォーマルワードとでてきたが、これはどう作った?
A: 五感辞典に含まれている五感情報を持ってきた。
カジュアルかフォーマルかは人手で付与している。
Q: 文字種と画数で若者語を検出するのは不可能だと思うが、
どういう要素が他にありそうか?
A: どういった漢字をどういう時期に学習できるか、読みも考慮したい。
B1-4 SVMを用いた株価短報における意見文と事実文の抽出 (pp.15-17), ◎嶋田康平, 岡田真, 橋本喜代太(阪府大)
意見文と事実分を区別して、その後の分析に役立てたい
株価短報中の意見文/事実文を分類・抽出する
意見文については文末表現パターンを定義。含まない場合は事実文と判定。
naltoma: 意見文についてパターン定義したのは、そっちの方が定義しやすかったから?
naltoma: 文末表現でパターン定義したのなら学習する必要はないのでは??
naltoma: 抽出についてはどうやる?(今回は分類=抽出?)
Q: 予稿では、株価短報に事実文と意見文が含まれるということは分かるが、
そのはき違えを無くすために分けると書かれている。株売買では株価短報読んで
はき違える可能性があるのだろうか? はき違えた事実を観測した?
A: 調べていない。
Q: 意見文の基準は示されている。非意見文をここでは事実文としている。
非意見文が事実文であるという検証はしている?
A: 人手でラベル振る時に、数値だけの文といったものは完全に除去している。
今回の実験では意見文のみしか基準を提示できなかった。
Q: 意見文データを作るとき、正規表現で収集した?
これをパターンマッチするようにしたら良いのでは?
A: 機械学習を勉強しようとする導入として。
Q: 文末表現ではうまく抽出できない所についてやるべきだったと思う。
C: 株価短報は普通の文章と大分違う。
意見文は提示したルールで記述されている。
Q: SVMで学習する場合、その文末表現が効くことが分かっているなら
それを直接的に素性にするのが最も早いと思う。
それでラベル付けにすることが問題になる部分について、
明確な定義ができない部分について検討してみて欲しい。
B1-5 自然言語処理適用のためのOCR後処理技術の提案 (pp.18-21), ○鈴木敏, 永田昌明(NTT)
言語処理が有効になる程度にはOCRで語認識したい(例:絵本では文字自体抽出しにくい)
カメラ付きモバイル端末の普及+スマートフォンアプリ
古い書籍の電子化
実画像の場合、満足できる性能ではない
方針:再現率を高く。精度が落ちるのは許容。
正しい文字を効率的に取り出すには?
文字認識誤りがどこから発生するか?
文字位置を特定する所
信頼度フィルタリング+文字位置再推定+再OCR+再フィルタリング
各推定段階での推定結果を残しておき、最も信頼度の高い文字を最終出力として採用
naltoma: 文字においては局所的な輝度変化がある範囲内に収まることを仮定して、
それが任意のスケールで一列縦横斜めに複数並ぶのを探索し、最適スケールを
見つけることができれば良さそう?
Q: 結果について。看板では始めから全文字認識できるものや全く認識できなかったものが多かった
という話だが、認識できなかったものはどういうもの?
フォントの種類によって抽出しやすさは変わってくる?
A: 認識できないものというのは、パターンマッチングなのでフォントに強く依存する。
フォントによっては難しいものや、サイズが大小混在しているケースも難しい。
Q: スマートフォンで写真をとってる場合、ちゃんと正面からとっているケースは
少なそうだが、何かしら補正しているのか?
A: サンプル画像はわりと綺麗に正面からとってるものが多い。
位置推定については斜めになっても追従するように考慮している。
ただし、文字自体が変形するレベルに付いては難しい。
Q: 評価について、再現率を上げるとのことだが、信頼度が高い所についての評価?
A: 全部まとめての評価。
Q: いくつか認識したものを統合する流れだが、認識結果A,Bで文字数が異なる場合にはどうなる?
A: 位置情報が残るので、同じ位置に複数あればどれかを選べば良いという流れになる。
Q: 前の段階での文字半分とか。
A: 文字サイズがベースになっているため、それが優先される。
大きく外れたものしか無い場合には文字サイズ優先。
B2:意味解析(1), 座長: 岩倉 友哉(富士通研)
B2-1 「契約・解約」に関する消費者トラブル相談事例の分類と分析 (pp.94-97), ◎新井翔太, 聶添, 宇津呂武仁(筑波大), 河田容英(ログワークス), 神門典子(NII)
消費生活におけるトラブル発生が後を絶たない->対策・解決方法を知っておく必要がある
トラブル解決に有用な相談事例の自動分類のための事例分析
Yahoo!知恵袋(5年分1600万件)->27%が契約・解約関連
業者に責任がある/ない
業者に責任があるものだけをピックアップし、分析に役立てたい
手掛かり:被害説明、被害にあって発生した気持ち
naltoma: Yahoo!知恵袋の27%が対象とのことだが、それはどう絞り込んだ?
naltoma: 「被害にあって発生した気持ち」は業績に責任の有無とは無関係に持ってしまわないか?
(分類のために何か役立つ情報源になるのか?)
naltoma: 綺麗にまとめられた文書ではない上に、どこまで事実かが分からない
主観性の強い文書だと思うが、問題にならないか?
Q: 責任あり/なしで人で分類しているようだが、単語によってどちらに割り振るかが
判断困難なケースではどうやった?
A: 分析だけで時間が過ぎてしまって、十分な検討ができていない。
素朴に精度の高い単語を見つけるということは困難だと考えている。
Q: 解答を見るのはどうか?
A: 今回は質問だけに着目しているが、今回は質問者が「どちらに問題があるか」を
判断できれば良いと考えている。
Q: 解答見た方が判断しやすくならないか?
A: 分析作業時には解答も見ながらラベル付けをした。
Q: 感情を含む箇所を自動認識するにはどういうアイデアがある?
A: 表記の揺れも勿論あるが、簡単な感情「心配です/不安だ」みたいなものはある。
最終的には機械学習を使うことを想定している。
B2-2 語彙知識と構成性に基づく日本語事実性解析 (pp.98-101), ◎成田和弥, 水野淳太, 乾健太郎(東北大)
事実性とは:例「iPhoneを購入」しているかどうか
実際には起こっていない/可能性が低い/可能性が高い/起こっている/不明
事実性解析に対する手掛かりとなる表現に着目
文末の事象は、機能語の辞書情報によって決定される
カバレッジは高いが、曖昧性も高い:e.g., 「知らないのも不思議*では*ないです」
事実性を伝搬すべきか(スコープの問題)
naltoma: 文末事象以外に手掛かりになる表現はない?
naltoma: 何故「伝搬」できると考えたのだろう?
Q: 文末じゃない所について。連体修飾は扱っている?
A: そもそも最初の文について考えるべき。基本的には対象外。
Q: 全部捨てちゃうのは勿体無いように思った。
A: どこまでを事実性とすべきかは議論すべき所だと思う。
Q: 「ど忘れして思い出せなかった」が失敗するのは、「思い出す」の反語を伝えちゃったから?
A: 思い出した/知るは前提になるので、前提については「して」が関係している。
Q: 時態勢名詞(xxx)みたいなものは同じ枠組みで扱える?
A: そのつもりで、影響するような特別な処理はしていないつもり。
データにも入っている。
Q: 事実を知っている人は話す。伝搬するということ自体がおかしいように感じる。
「ど忘れして」の例は理由を述べている。
A: 事実性というのは「著者がどのように思って書いたか」という視点で判断している。
話に出てくる人の視点ではない。
「ど忘れして」については、理由だから伝搬してはいけないというのはスコープとして捉えている。
Q: 理由についてはシステマチックにできるので、後で。
B2-3 ファクトイド型質問応答を用いた正誤判定問題の解決 (pp.102-105), ○金山博(日本IBM), 宮尾祐介(NII)
命題の真偽判定
網羅的な情報源があっても「偽」と答えるのは困難
なぜ「偽」なのかがわかると尚良い
命題をファクトイド型質問に一旦変換してWatsonに解かせる
想定解と一致するなら「きっと真だろう」
複数正解を持つ質問は確信度分布を用いて排除
属性を問う(他に答えようが無い)質問は、構文的特性を用いて排除
-> 固有名詞以外が原因となっている問題には対応できない
-> 「文のどこが間違っているのか」を示唆できる
naltoma: 合意形成の一種だと思うが、素朴に確信度を見ることが正しいのかしら?
Q: 属性を問う質問になるという話があったが、
集約時にペナルティをかけるのと、作成時に除外する(作らない)ことが考えられそうだが。
A: それしか作れないこともあるので、一度作ってからペナルティを適用している。
Q: 名詞の上位語に置き換えるのではなく、
文章絞り込むような語では難しい問題になる。
上位語をどう選ぶか、疑問詞をどう選ぶのか。
数量はどう扱ったか。
A: 疑問詞については、Watsonについては疑問詞を扱わなくて良いケースだった。
上位語については人手でやってる根拠でもあるが、センス。
数量については、Watsonが苦手。確信度があまり上がらなくて扱われないケースが多い。
B2-4 述語項構造解析を伴った日本語省略解析の検討 (pp.106-109), ○平博順, 永田昌明(NTT)
日本語の省略ニーズ:e.g., 日本語での主語省略が誤訳される
項の省略≒述語項構造解析
生テキストから5W1H「何が何をどうした」を解析
外界照応も一緒に解析したらどうなる?
Q: 外界照応も含めた解析器が動いてて60%ぐらい出せている。
A: 参考にさせて頂きます。
Q: 外界照応について捉えるために何が効いたのか。
A: モダリティが効いていそうだが、新聞記事では出にくい。
Q: 外界照応やってみて、どれぐらい改良できそうか。
人間でもわからないケースが多くありそうだが。
A: 簡単なやつは良いが、一人称と二人称については簡単に上がるケースがある。
B2-5 構文・述語項構造解析システムKNPの解析の流れと特徴 (pp.110-113), ○笹野遼平(東工大), 河原大輔, 黒橋禎夫(京大), 奥村学(東工大)
KNPのイメージ
ルールベースの係り受け解析:統合的解析器
内部で何が行われているか分からない:ルールと統計情報用いた解析
出力結果読み方が分からない:分析用に可読性を重視した出力を追加
どのようなタスクにKNPが向いているか
構文・格解析(デフォルト):省略項解析しない
固有表現解析(-ne)
ルールに基づく共参照解析(-anaphora)
ゼロ照応解析を含む述語項構造解析(-anaphora):係り受け関係再解析しない+格解析は再解析
CaboCha + SynCha との主な違い
KNPは文全体を見て最適な構文・格構造を決定
ガーデンパス文等、遠距離、かつ、語彙情報を考慮する必要がある係り受け解析に頑健
KNPは格フレームに含まれる全ての格が解析対象
主題格も解析できる(象は鼻が長い)
受身文、使役文の場合
Q: KNPのソースコード読もうとして諦めたが、メンテできる人はどれぐらいいる?
A: 著者の河原&私だけ。
Q: KNPの売りは並列句を正しく処理できるのがウリだったという記憶だが、最近はどう?
A: 当時はそうだったが、その後より強化された手法が提案されている。
ただし、公開版には反映されていないこともあり、具体的にどうなのかは良く分からない。
Q: ドキュメンテーションがあると嬉しいが、予定は?
A: ドキュメンテーションがないのはありえない状況のため、書くようにする。
「-tab」は何でも出せという気持ちでやっていることもあり、古いものも含まれている。
全てについてドキュメントを用意できる訳ではない。
Q: 高速化は?
A: 今後の課題。
格フレーム読み込み部分についてデータ構造持ち方工夫で数倍には高速化できると想像している。
B3:談話解析, 座長: 飯田 龍(東工大)
B3-1 文章構造解析に基づく小論文の論理構成における整然さの自動評価 (pp.190-193), ○勝又大介, 藤田彬, 田村直良(横浜国大)
教育測定、小論文試験における採点者の負担軽減&評価揺れの改善
藤田2009による文章モデルの拡張
文間関係の「向き」を考慮したより具体的な論理展開を捉えて文章を評価
文章構造の精密化(向き考慮)
論理構成における整然さの評価
文が互いに関連+主張とそれに対する根拠、理由付け
naltoma: どういう入力を想定しているのだろう?
1章とか小説分けされてない、複数パラグラフがある程度の小論文?
Q: 小論文の分量によって論理構成が違ってくるんじゃないかと思うが。
どういう想定?
A: 所有している小論文400編、400字と800字が200編。
400字ではばらつきが少なかったので、800字のみで検証。
Q: マルコフ・ロジックを使っているとのことだったが、ソフト制約についてはどうだった?
A: 緩和制約について、「2項関係が交差しない」は影響が高かったが、
それ以外はあまり見られなかった。
Q: 自動採点やるとき、RSTから3つにしているが、その粒度で採点に都合がいい? 別の理由がある?
A: 3つに粗く分けているのは、現時点でも精度が低いのであまり細かくし過ぎても仕方が無いというのが一つの理由。
また、細かい修辞関係を用意した場合の評価が困難でもある。
Q: それで良いかの検証は?
A: していない。
Q: 論文採点前で精度とか話されているが、これは何の精度?
A: relateはエッジの有無についての精度。nucearity が文間関係。
relation がエッジ関係。
Q: 木構造で談話構造分析するというのをNLP2012ぐらいにあったと思うが、
その関係をラベリングして採点するというものを比較してはどうか。
B3-2 識別的スクリプトモデルを用いた文間ゼロ照応解析 (pp.194-197), ○浜田伸一郎(TSOL)
ゼロ照応解析
述語の必須格同定
述語項構造解析:KNPで70~90%
文内ゼロ照応解析:30~50%
文間ゼロ照応解析:~25%
文法的傾向がない場合にはスクリプトモデルを利用
問題点:長さが短い+順序が重要
さらに欲しい点:述語の語義を区別してスクリプトモデルを使いたい
Q: スクリプト作る所に付いて。コーパスから動詞部分をとってくる?
動詞の接続関係に付いてはどう扱う?
A: 今回は繋がっている、順接だと考えて扱っている。
Q: そこも考慮してもらうと良いと思う。
Q: 長くするほど適応が難しくなると思う。
A: 短い長さのnramから長いngramも重ねて利用している。
それがよりモデルとして複雑になっていて、スパースになっているのが問題。
Q: スクリプトモデルで出したMRRの良さと、結果とに相関が見られないように見えるが、
どういう解釈をしたら良いか。
A: MRRはランキング性能。ランキングはスクリプトモデルでうまく予測できないが、
棄却はできると考えていて、どこでスクリプトを終えるかを判断するために使えると思う。
B3-3 対をなす二文書間における文対応推定および応答文生成への応用 (pp.198-201), ◎角田孝昭, 乾孝司, 山本幹雄(筑波大)
対をなす二文書:二分書間の文関係(ある応答文が応答先文書のある文を原因として生起している関係)
1対1だけじゃなく1対多も許す
手紙-返信/投稿-レス/レビュー-応答
書き手同士のインタラクションのみ抽出したい
「対応無し」の特定により返答漏れを指摘できる
応答文自動生成が可能かもしれない
入手した対応文を「対訳文」とみなし、統計的機械翻訳的に生成
文種類を活用して対応の推定性能向上を試みる
naltoma: 文種類を考慮した結果が思ったより延びていないが、
これは文種類推定自体の精度が低い?
Q: 先行研究では2つを個別にアライメントしていて、
提案手法では3つを同時にアライメントしているという話だったが、
CRFで学習できるのか?
A: 1次元だと効率的に推定できるが、2次元になると困難。
多項式時間でできるかも怪しい。今回は厳密解ではない。
Q: ホテル応答自動生成されてるのは嫌な気がするが、自動生成すべきか?
A: 完全な自動生成は夢物語。苦情出てきた時のサジェストするぐらいを想定。
Q: データが特殊な気がする。応答が全て付いてる密なグラフに見える。
それがうまくいってる理由にも思える。他のジャンル、スパースな
場合でもうまくいくのだろうか?
A: 検証してみないと分からないが、宿泊サイトにおける応答はかなりの確率で
対応関係がある。他のケースでは確かに少なくなると思う。その時にどのぐらい
うまくいくのかはやってみないと分からない。
Q: 文種類は先行研究のみ?独自?
A: 数年前の「楽天トラベル」でやったときのものがベースで、若干再構成している部分もある。
B3-4 共起距離に基づく文特徴量を用いた派生談話認識に関する調査 (pp.202-203), ◎堀川敦弘, 當間愛晃, 赤嶺有平, 山田孝治, 遠藤聡志(琉球大)
naltoma: 去年もだった気がするけど変換コネクタ持って来ないとかいい度胸してるな!
naltoma: やりたいことは伝えているんだけど、それが従来の問題と何が違うタスクに
なっているのかという説明が不十分か。
naltoma: 実験目的が少し分かりにくかったかも。まばらなのは何が問題かとか。
naltoma: 一般的なトピック抽出的なアプローチというか、単語自身を潜在的意味解析で
の特徴ベクトル化するようなことでもできたりするのかな。
Q: 共起辞書を派生具合として用いているが、共起辞書に載ってないものを追加していく。
どういう条件で追加していく?
A: 談話同定する対象が、終わりを定義することは想定しておらず、ある一定時間で区切っている。
そこまでの所で漏れが無くなるまで辞書に登録する。
対象を広げることはできるが、今回は談話同定を行いたい範囲で構築している。
Q: 課題というのは、ツイートがいくつか与えられた際に、
そのツイートと同じような話題を持っているようなツイートを探し出していく?
A: はい。
Q: 探し出し方は、元のツイートに含まれる単語から探していく?
A: 最初の手法がそう。
Q: それでは駄目だったから共起?
A: その通り。
Q: シードにどんどん新しい単語を足していく際に、
発散していくのをどう抑えるかという研究が数多くあるので、
調べて見ると良いのでは。
Q: 派生談話かどうかについて、フォロー関係は使っていない?
ユーザ間関係を絞った上で検討しているのか?
A: フォロー関係によって派生の元となるツイートがでてこないという解釈であっているか?
Q: はい。
A: 今回は割とローカルな話題、身内が多い状況を想定。
Q: ほぼフォロー関係にある状況だが、必ずしもそうではない?
A: その通り。
Q: シードツイートはどういうもの? そこからどういうツイートを集めたい?
A: シードツイートは談話を集める際のタイトルみたいなものとして考えている。
個人の評価で取ってきて欲しい。
Q: 評価する際には、シードツイートはどういうものを与えている?
A: ある女の子がドアノブを舐めたというツイートがあり、
言われた本人がそれは妄想だと言うリプライを返している。
そこから突っ込みや実況が入っているものが対象。
Q: シードツイートに何を持ってきて、何を収集したいかということだが、
何をシードツイートにすべきかも含めてクリアにすると有効性が明らかになると思う。
A: 目指したいものはツイッタークライアント。
リプライ関係やハッシュタグがないのも含めて出て来るとうれしい。
Q: 明示的に表したいからハッシュタグを付けているというものもあるが、
そこを外したものも強制的に集めてくるというのはどうか?
A: ハッシュタグが付いてると後から読み返すのが楽だが、付いてないとコストが大きい。