言語処理学会第18回年次大会(NLP2012) 3日目レポート

Share on:

学科システムメンテナンスのためブログにアップロードできるのがいつになるのか分かりませんが、記事自体は 3/15 付けで書いてます。昨晩の隠戸で頂いた牡蠣づくしのお陰なのかすこぶる快適な目覚めで始まりました。

自然言語処理学会第18回年次大会(NLP2012)本会議3日目」に参加してきました。

最終日となる3日目は、午前セッション+ポスターセッション+午後セッションという3構成。
参加したプログラムは次の通りです。

 ・セッション4: D4:教育応用・新応用
 ・ポスターセッション: P3: ポスター(3)
 ・セッション5: A5:テーマセッション3 : 災害時における言語情報処理(2)

例によってポスターセッションは遠目に見たり話を横耳で聞いたりしたのが殆どなので、変な解釈が多いかもしれません。

以下、その参加メモになります。

naltoma印は當間の個人的な疑問点。
Q: A: で始まってるのは会場内での質疑応答を當間なりに解釈したものです。


<目次>
D4:教育応用・新応用

P3:ポスター(3)

A5:テーマセッション3 : 災害時における言語情報処理(2)


D4:教育応用・新応用   3月16日(金) 9:00-12:00 602講義室  座長: 山田一郎(NHK)


D4-1 ランダムフォレストを用いた英語習熟度の自動推定 (pp.979-982) ○小林雄一郎 (阪大/学振)

英語力テストは人が評価する(人+人+機械のケースも出てきた):全体的評価/語彙や文法等の分析的評価/特定要因評価
客観的な評価基準と統計モデルで習熟度を推定したい
 習熟度の情報付与されたコーパス
 20変数+相関分析+ランダムフォレスト+k-近傍: Level1と2の適切な境界は1.5か?1.4,1.6とかズレてることは無いか?

naltoma: 機械生成した英作文の自動評価->改善目安にも繋がる?(機械作文の特性とは異なる?)
naltoma: 採点時の外部要因は考えられないか?(他の作文を見ることによる影響とか)

Q: k-近傍使うという話だが、ランダムフォレストで分類しない理由は?
A: 分類問題として扱うことも可能だが、やや精度が落ちてしまう。順序情報を使いたかった。
Q: 順序情報を無視した場合でも良くなりそうだが、試した?
A: 4,5パーセント程度落ちた。
Q: 分類数によっても変わらないか?
A: 点数があるので分類数を自分で決めることも可能だが、今回は4段階に分けられていたのでそれに従った。

Q: 回帰における説明変数の動く範囲は、0~1とか正規化されてる?
A: 変数によるが文あたりの正規化とかをしている。正規化の仕方が影響するという話もある。

Q: 人が判断したらどれぐらいで切るものなのか? upper-boundも見れるので試してみると良いと思う。実はとても難しい問題では?
A: このデータに関してはチェックしていない。


D4-2 辞書の意味を利用した日本語単語と英語単語の難易度推定 (pp.983-986) ○中西聖明, 木藤善信, 木村祐介, 椎名広光, 北川文夫 (岡理大)

日本人から見た日本語単語難易度と、非母国語者からみた難易度に違いがありそう->推定したい
SVM繰り返し学習

naltoma: 英英辞書やWordNetをベースにすることのバイアスが強そうだが、例えばニュースや口頭等のような形で生活環境で触れやすい単語は難易度が低いとかは考慮できない?(難易度という観点は適当か?)

Q: Webデータを用いた場合について。検索して一文抽出してくるという話だが、言葉の定義になっていないものも多くありそうだが?
A: 簡単なルールしか入れていないが、「同じスペルが複数現れるのは除外する」とかぐらいしかチェックしていない。

Q: 国語辞典で調べた例では、辞書を変えて分布が変わっていたから日本人にとって易しいが外国人にとって難しいという判断をしているが、これは辞書/英検とかの学習対象レベルがどのあたりに属しているかという解釈に相当する?
A: はい。
Q: 定義文の説明で判定するという所も、定義文は基本的に分かりやすく説明しようと書かれていると思うが。
A: 難しいか易しいかであれば割と簡単に判定できているが、中間レベルでの差異が判定困難。
Q: それ以外の情報源を使う予定は?
A: 係り受けとかいろいろ加味してやってみたが実際の精度は減ってきているという経緯があり、今回のアプローチに切り替えている。


D4-3 作文事例に基づいた児童の「書くこと」に関する学習傾向についての分析−小学四年生による紹介文・感想文を中心に− (pp.987-990) ○藤田彬, 田村直良 (横浜国大)

作文指導:一定の基準に沿って、全ての問題点に言及し、適切な助言を与える
先行研究:「こどもコーパス」、坂本によるコーパス
自動の多様な言語活動を俯瞰的に把握したい:幅広い学習状況作文の収集、網羅的かつ一般性の高い点検(添削)情報の付与
作文の点検:15名点検者
 具体例を交えながら点検方法の研修を済ませた国語教師経験者、研究室院生、塾講師等
 規準統一困難なので1編に対して2名の点検者が点検
  欄外に総括的な注釈/個別箇所への注釈/オプションとして総合評価(3段階絶対評価)
 電子コーパス化
  誤りはそのまま。判読難しいもの等は作業者判断により選択入力。
  点検タグ体系:基本タグ/機能コメントタグ/本文に付与されるタグ
   主観により変わるものか否かでtype属性=null、客観性のあるものはtype=e

naltoma: 似たようなケースだと想像するが、課題レポートチェックや論文指導についてのコーパス作成の際に気をつけることは何だろう?

Q: 一つの作文について複数の人が添削しているようだが、一致度/齟齬は?
A: 基本的な事項、段落分けとか接続詞とかについてはほぼ一致。それ以外は揺れが大きい。
Q: コーパスとしてはそれを統合する?
A: 別々に作成。
Q: 入れ子は良さそうだがクロスはどうする?
A: 問題。タグにIDを振ることになりそう。
Q: ドラスティックにタグの順序を入れ替えるとかなにか考えられない?
A: タグ変更、差し替えで対応できると思う。

Q: コーパスデザインする際に現場の先生からのフィードバックとか相談はしてるのか。
A: 現場の先生に見せるというコンセプトでは使っていなかった。NLP研究者向け。現場向けも意思気はしていて、総括的なコメントだけ見れば現場向けに役立つと思う。
Q: 作文指導者がどういう指示の元で書かせているかとかの記録はあるか?
A: ない。担任の先生が付けたコメントも手元にはない。


D4-4 中学理科教科書におけるテキストの時系列比較:学習指導要領との対応に着目して (pp.991-994) ○浅石卓真, 歌川光一, 中村由香 (東大)

教科書の「共通」性は不安定:学習指導要領改訂/出版社違い/選択教科
 例えば今の40代、50代が使った教科書における語彙量は5割程度(?)異なる
 観点1:重要な科学概念を軸とした構成 ->「少数の語彙を繰り返し使用して全体を記述する」と読み替えた
 観点2:応用的な/高度な内容の削減 ->「使われる語彙の減少」と読み替えた
 観点3:「活用」「探求」活動の充実 -> 「日常生活の関連語彙の増加」と読み替えた

naltoma: 関連箇所の明示や関連単元間の繋がり明示のためにはどうすれば良い?(単元なりの判定?)

Q: 大きい目的についての確認。指導要領にちゃんと基づいた教科書になっているかをチェックするため?
A: 一つはそのチェックもある。より上位で見ると、指導要領の基礎基本は原則として変わっておらず、どの観点で見た時の学力において上下があるかというのを見たかった。学力の上下は言い過ぎだが、教科書への反映のされ方を統一基準で分析した。どういう点が欠落しているかを指摘したかったというのが目的。

Q: 指導要領解説があり、そちらの方が細かく具体的に書かれていると思う。そちらの方がより向いているのでは?
A: 指導要領以外にも解説も見てみたが、より細分化して整理するということは今後考えている所。
Q: 学習指導要領は概念的なことなので、内容的な側面を見たいなら解説の方が向いていると思う。

Q: 調査対象が戦後に限られてるのは参照しやすさの問題? 戦前についても比較できると面白そう。また、体系性を重視するというよりは、検定などの方が今回の数字を左右していると思う。制度がこうなっているのではないか。韓国とか他国との比較でより面白そうな側面が見れそう。


D4-5 言語処理技術の統合的評価基盤としての大学入試問題 (pp.995-998) ○宮尾祐介 (NII), 川添愛 (津田塾大/NII), 松崎拓也 (東大), 横野光 (NII)

適切な「謎」の設定:人工頭脳プロジェクト「ロボットは東大に入れるか?」、オープンプラットフォーム
主要な研究テーマ
 形式表現への写像:数学はMathematicaに入力する表現形に変換できれば解ける
 知識を問う問題:含意関係認識 @NTCIR10_RITE
 オントロジーに基づく推論:定性的推論の実現(それぞれの科目のためのMathematica≒ドメインオントロジー推論)
 概念化・事例化:異なる抽象化レベルの間の橋渡し(国語、英語、倫理で良く見られる。e.g., 自我同一性についての具体的事例)
 文章の自然さの認識:対話理解、読解問題、文脈・談話の一貫性に関する様々な要素
 自然言語とプログラムの接続
問題タイプ分類
 数式/物理モデル/化学モデル/自然言語クエリ///
入出力はXML:文書構造、メタ情報、数式や表、問題の分類カテゴリ(正誤選択/人名/漢字/二次関数//)、後々は自動解析も
リソース
 コーパス、基盤システム、ベースラインシステムを公開予定

naltoma: 「100%合意のとれる正解がある」点は結果的に自然言語の中でも「ロジック」表現できるものに限定されていないか?(残された部分に「対話」の面白さがある?)

Q: 評価として成果が見やすいというのは同意するが、本当の自然言語を理解したいというところに少し繋がりが分からない。QAタスクは自然言語理解の究極的タスクの一つとかという話だが、単語抽出して云々という話に収束しがち。東大入試では全員が入れるわけでもなく、ある種の知識は問われている。その辺の繋がりは?
A: 同じような指摘は良くいただいている。大学入試最適化してしまうとQAシステムと同じような話に陥ってしまうと思う。今現時点での研究者間でのアグリーメントとしては、そういう最適化ではなく個別に考えていく。どうしても言語処理が進むためには知識にある程度踏み込んでいく必要がある。大学入試については評価されてる内容の質が異なると思い、QAシステムとは違う側面が出てくることを期待している。

Q: 機械に与える知識は教科書のようだが、解く時にはオンラインでWeb検索とかもする?
A: 個人的にはしなくていいと思っている。試験のために必要な知識はあまり多くない。常識はWeb検索で解決できるとは思えない。
Q: 教科書から必要な知識を取るという話をしてくると、何が必要かというところをちゃんとやらずに安易にWeb検索に行くとQAシステムみたいな話になると思う。
A: QA的なアプローチでは解けないが人間ならほぼ確実に解けるという問題設定を考えている。


D4-6 論文間参照タイプ判定の細分化に基づくサーベイ補助システムの構築 (pp.999-1002) ○小出寛史, 橋本陽平, 秦野福己, 韓東力 (日大)

論文収集・理解するタスクは非常に時間がかかる。論文同士の関係理解も大変
ある一つの論文を選定した時点で、その論文と参照論文との関係性を明らかにしたい
 参照タイプ6種類:歴史/類似/理論/研究手法/実験手法・データ/結果
 Ayaによる文間関係

naltoma: 論文には様々な論点が入り交じるが、どういう「関係」を見たいのか?
naltoma: 各参照論文との関係一覧が取れたとすると、そこから「対象論文」の中心話題やストーリーを推定することや、校正的な意味合いでの欠落部分推定などに近づけそう?
naltoma: 参照タイプはどのように決定したら良いか?(これで過不足ないか? 視点によっては違う見方が欲しくならないか? 極性付与ぐらいで十分だったり?)
naltoma: 正答率が40~50%と比較的まだ低いが、どのような誤答が見られたのか?

Q: 6つに分けた理由は? 結構似たようなものがあるようにも見えたが。
A: 先行研究での3つでは「論説根拠型/問題指摘型/その他」で実質2分類で観点が少ない。より詳細に見たかった。各参照毎に定義して分類している。歴史と類似研究の例だと、歴史では「直接関係ない論文」もありえるという観点で分けた。4人で意見を出し合って分けた結果。適切かどうかは要検討。
Q: 今聞いてても歴史と類似研究をどう分けて良いか判断困難に思えたので、一度分けてみてそれがコンセンサスが取れるかどうかを見ることで参照タイプを精査することも考えて見ると良いと思う。


D4-7 意見間の関係の可視化による意見交換の発散支援システム (pp.1003-1006) ○清水允文, 砂山渡 (広島市立大)

(タイトル変更?)予稿タイトル:意見の全体像の可視化による意見交換の発散支援

話し合いの場が設けられて設定されるテーマが対象
結論が約8個以内の選択肢から選ばれるテーマ
意思決定のための意見交換:発散フェーズ/収束フェーズ
 発散支援:選択肢間の関連度計算

naltoma: 意見交換を発散することを支援?ブレストとか?(それって意見交換?)
naltoma: 意見交換におけるどのような点について「発散」させたい?
naltoma: 選択肢の個数制限がある理由は? 悪影響が無い?
naltoma: KJ法的にはアイデアを出す段階では「関連を見ない」ことが重要だと思うが、そこを何らかの指標で関連度を見せてしまうことによる弊害は無いか?
naltoma: 収束も想定しているようだがAHPとか既存手法とどちらが良い?

Q: 発散を支援するということでブレスト的により多くの選択肢を出したいという時のようだが、具体的にどういうテーマでやってみた?
A: 選択肢が一つのジャンルで関連度が算出しやすいテーマで検証した。

Q: 可視化について効果の有無を確認したようだが、何もしないでテーマについて議論させた場合に自然と発散するかとか。可視化以前でもある程度コントロールされてる議論ではないか。放置してた場合と可視化外した場合との差は?
A: 視覚化パネルを外しただけではまだ制約があると考えられるので、何も使用していない場合との実験もやってみたい。

Q: 選択肢カードを使って議論を使っているが、そのカードには「広島城」とか書いてある?
A: 書かれてなくて、キューを与えるだけのカード。


D4-8 住民参画Webプラットフォームにおけるコンサーン・アセスメント支援機構(pp.1007-1010) ○白松俊, 大囿忠親, 新谷虎松 (名工大)

住民参画WebプラットフォームO2:今回は透明性、参画がターゲット
住民は「何が問題か」を知らないと参画できない:コンサーン・アセスメント
 ニュース記事・ツイートを地域毎に分類、出来事でクラスタリング
 情報構造化スキーマ:ドメインオントロジー(SOCIA)、LODデータセットの公開
 共有したコンサーンを活用した議論支援
実世界の出来事や地域にIDを振り、コンサーンの整理/共有のために活用したい
 地域・イベントを基点とした構造化
 記事クラスタをイベントとみなす

naltoma: 「イベント」の定義は?(後日になって解釈が付随して初めて共通認識になることも)
naltoma: クラスタリングでイベント同定する形だと「観点が大きく異なる記事」が漏れてしまわないか?(クラスタリング結果について評価をどうする?)
naltoma: 確信度のようなものは後々明確に判定可能なこともありえるが、バージョン管理は含まれている?別イベントとして新ID対応?

Q: 公共事業とかに関わる話で合意形成学とかを「インタレスト」に注目してやられていると思うが、コンサーンというのはどこから持ってきた?
A: コンセンサスが取れていないが、共同研究先ではタウンミーティング・パブリックコメントがコンサーンアセスメントのためにやられているという説明がなされている。
Q: 情報の見せ方にも工夫が必要かなと感じたが。
A: 現システムでは「何がコンサーンか分からない」という前提での提示だった。委員会では何を話すか決まっているという状況もあり、そういうケースでは適用できない。状況に応じて適用するインタフェースが必要。

Q: 地域の問題は大切だと思うが、例えば北大の人が集められてるのは本当に地域のデータ。今回の記事とかではどうなっている?
A: ニュースで密着した記事があるかは重要な観点。実際にそういう事例もあった。
Q: 効率の問題かもしれないが、地域のコミュニティ新聞とかに多く出てそうだが。
A: 一般的なニュース記事だけでは確かに困難だと思う。名古屋市議会のコンテンツも入れるとか考えている。


D4-9 OCRを用いた視線情報と閲覧テキストの言語的特徴の関連付け (pp.1011-1014) ○冨田恭平 (東大), 相澤彰子 (NII/東大), Martinez-Gomez Pascual, 陳琛 (東大), 原忠義 (NII), 狩野芳伸 (JST)

視線認識と自然言語処理の融合:ユーザの興味に応じた文書の自動要約/文章境界部分での視線の動き分析/等々
 問題点:単語が表示されている位置が分からない/視線検出装置の誤差で計測された視線が上下にズレている
 どのように単語の画面上での位置と言語的特徴を特定するか(誤差への対処は今後の課題)
興味:「読みやすさ」「読み方」の評価手段

naltoma: タイトルからは良いと思うが「スクロールバー」等を除外すると興味として話されていた「レイアウトを考慮した読みやすさ」とかが抜け落ちてしまうように思う。どのように体系化したら良いだろうか?

Q: Webページを見てる時を考えたとき、埋め込まれているタグが処理されたものを見ている。テキストのレンダリングまで含めて、現在のウィンドウの幅とかも含めてマッチング取る必要がありそうだが、問題にならないか。
A: 今回やった例に関しては問題無いが、そこもやるとすると確かに問題になる。
Q: フォントは固定幅?
A: ではない。
Q: フォントサイズは?
A: ノイズを含めることを考慮して9ポイント。

Q: タイトルを見ると視線情報とあるが、視線情報そのものについては眼鏡かけるようなもので対応して、今回の話はスクリーン情報だったように思う。ズレのような話があったが、それはこれから?
A: 今後の課題。


P3:ポスター(3)   3月16日(金) 13:00-14:40 講堂小ホール


P3-4 数量表現を伴う文における含意関係認識の課題分析 (pp.1087-1090) ○成澤克麻, 渡邉陽太郎, 水野淳太, 岡崎直観, 乾健太郎 (東北大)

数量表現される文とは「ほげほげの売り上げが15%ほど伸びた」「ほげほげの売り上げが伸びた」みたいなもの。
実際にはいろんなケースがあってそこの分析が足りてないから進展が無いんじゃないかという立場でケース分類してみたという話。
まだ検証数が少ないようだけど、「100人が大勢が」「日本、中国、韓国三国」とか特徴的なケースがいくつか見れてきているらしい。
含意関係認識とは直接関係ないけど、情報編纂というキーワードで新聞から数値表現伴うのを抽出->グラフ化とかって話が確かあって、そっちの進展具合はどんなものなんだろう。


P3-5 時間表現と固有表現を標識とするウィキペディアからの言い換え知識獲得(pp.1091-1094) ○市川浩丈, 松崎拓也 (東大), 宮尾祐介 (NII)

言い換え知識を自動収集するために、より信頼度が高いと思われる歴史的イベントをターゲットにして収集するという話っぽい。
古ければ古いほど確からしいところも確認しているらしい。


P3-7 漸進的な日本語解析において出力する係り受け構造とその利用 (pp.1098-1101) ○大野誠寛, 松原茂樹 (名大)

とても聞きたかったんだけどタイミング合わず。
任意のタイミング、例えば話してる途中だとかでも係り受け構造を知りたい、というような話らしい。
昨日の招待講演であったプロソディみたいなのものは考慮してないようだけど、文節単位で入力される都度解析結果を出せるようにしてるっぽい。


P3-11 冗長な文の機械的分析と機械的検出 (pp.1114-1117) ○都藤俊輔, 村田真樹, 徳久雅人 (鳥取大), 馬青 (龍谷大)

冗長な文における「冗長な単語(とは限らないかもしれない)」を高い精度で判定できるようにモデル構築できましたという話。
「それでは次に」とかいろんなケースがありえるようだけど、分析したのがどのぐらいカバーしてるのかが気になる。


P3-13 RDBと既存のアノテーションツールによる統合的コーパス開発環境 (pp.1122-1125) ○伝康晴 (千葉大), 小磯花絵 (国語研)

将来的には話し言葉やマルチモーダルを見据えた汎用性のあるアノテーションを目指しているらしい。
汎用性求めすぎると使い難そうなんだけど、それは一旦体系化できれば絞り込んで使えば良いだけというスタンスなのかしら。


P3-24 コールセンタ対話における話者の知識量推定 (pp.1166-1169) ○宮崎千明, 東中竜一郎, 牧野俊朗, 松尾義博 (NTT)

テキストベースで対話文全体を用いた特徴ベクトル作って「会話対象に関する知識レベルを大小の2値判定」する話らしい。
そのぐらいの大雑把な分類であれば音声自体(話し方)に「知識レベルが小さい人らしさ」が結構含まれていそうなんだけど、そこは使わないのかそこで足りてないことをやろうとしているのかは良く分からず。
テキスト処理するなら、「会話対象」自体が時系列で推移するものだから「会話対象」をクラス分けして個別に判定するようにした方が良さそうな気もする。


P3-29 比喩的関係を利用した検索クエリ拡張手法 (pp.1184-1187) ○久保真哉, 桝井文人 (北見工大), 福本淳一 (立命館大)

入力された単語Aについて「**のようなA」というような比喩表現における属性を使ってうまく推論できないかという話らしい。
面白そうな着眼点ではあるのだけど、この考え方単体ではあまり上手くいってない?


P3-30 評価視点別レビュー要約のための重要文候補抽出 (pp.1188-1191) ○小池惇爾, 福本文代, 松吉俊, 稲葉脩太 (山梨大)

私の想定と異なり、「評価視点」というのが「レビュー項目」という定義。
別発表でも同じような定義で「評価者/ユーザの視点」というのを定義してタイトルに使ってるのがあるようなんだけど、私の解釈がおかしいだけで一般的なのかな?


P3-31 不具合事例文書からの製品・部品に関する因果関係抽出手法の検討 (pp.1192-1195) ○大森信行, 森辰則 (横浜国大)

先行研究の「実体語」抽出を8割程度で実現出来ているらしく、それを用いて「原因」や「失敗事例」が含まれる単文を自動抽出するという話。
ソフトウェア的な、例えばUIとかについても「ボタン」みたいなものは同じ枠組みでやれるというか区別できなさそうとのこと。
逆にその「ボタン」みたいなものじゃない点についてどうなんだろう。
「入力できない」「スクロールできない」とかいろいろ「実体語」が入ってなさそうな表現が多くなりそうな気がするんだけど。


P3-32 文書内のトピック数を考慮したトピック追跡の試み (pp.1196-1199) ○芹澤翠, 小林一郎 (お茶大)

これも話聞きたかったんだけどタイミング悪かったのか担当者が見つからず。
予稿見ると、文書には複数トピックが含まれるのが一般的なので、トピック単位で追跡しようという話。
ただトピックはクラスタリング抽出するらしい。
先行研究と違ってトピック内容の類似度に着目してトピック数を決定しているということだけど、どうだったんだろう。

ここ数日の発表通して、トピックもエンティティも名詞らしさも言いたいことは「何となく分かる」だけにもやもや感高し。


A5:テーマセッション3 : 災害時における言語情報処理(2)   3月16日(金) 15:00-18:00 603講義室  座長: グラム・ニュービッグ(京大)


A5-1 震災を題材としたニュース・ブログ間の話題の相関と遷移の分析 (pp.1224-1227) ○小池大地, 横本大輔, 牧田健作, 鈴木浩子, 宇津呂武仁 (筑波大), 河田容英 (ナビックス), 吉岡真治 (北大), 福原知宏 (産総研)

分析対象データ
 ニュース記事合計14万件、震災関連7単語(人手選択)を含む2.5万件
 ブログ記事同期間、3.5万件
  トピック&日付という軸で傾向分析
LDA
 トピックznは語wの確率分布によって特徴付けられる
 文書dはトピックznの確率分布によって特徴付けられる
文書をトピックに分類
 文書毎に最大確率トピックとして分類
記事を日付に分類

naltoma: 話題の定義は?(あるイベントについて側面を知りたいとかは?)
naltoma: 「東日本大震災に関連したニュース・ブログ記事集合」はどう収集した?(関連とは? そこに主観なりバイアス入っていない?)
naltoma: 1記事に複数トピックが含まれることが多々あると思うが、今回は記事単位での分析?
naltoma: 分析目的によるが、ユーザが望む分析が行えるのか?(どういう分析をしたくてLDAでトピック分類した?)
naltoma: 避難地域と避難者を違うという判定(?)するのはもの凄く主観性が高く感じるが、どのような評価をしたいのか?

Q: 7つキーワードは全て原発に関するもののようだが、大震災とかそれ以外のキーワードはやってみた?
A: 原発寄りになっている部分はあると思う。これらの単語でどれぐらい集まるかやってみて、3.5万件のボリュームが集まったのでそのまま分析に移ってみた。
Q: トピックと言われているのはLDAで推定されたトピックのようだが、ブログ記事と新聞記事における書き方の違いもある。二つの軸として、つまりトピックと書き方の軸。それを分けて分析するとよりトピックっぽいものが出てきそうに思う。
A: トピックによってはブログ特有の単語が出てくることもあり、そういうのは消すとか。何かしら特徴を捉えるようなことをしてLDAにかけてみることが重要だと思う。

Q: タイトルでは遷移の分析とある。時間変化が見れるということでニュース記事等を選んだと思うが、どういう遷移が見られたのか。
A: 発表では省いたが、例えば津波等のトピックは3月中に盛り上がって減るなどの傾向が見られた。震災地でのペットの行方不明に関するブログや、保育所が書いてるブログ記事など、そういうのは日付に関係なく一定数集まっているなどが観察できた。
Q: 時間遷移を見るとき、トピックに分類して時系列上に配置するというのもあると思うが、時間区間に区切ってその区間毎にトピックを見るという方法もありそう。今回の提案手法では端の方にあるようなものが特徴的として出てきそうな気もするが。
A: 記事件数が集まっていないものはあまりトピックらしくないものが集まっているのがあったが、区間区切りにも問題点があるので今回はこのようなアプローチをとった。


A5-2 大規模災害時におけるソーシャルメディアの変化 (pp.1228-1231) ○榊剛史 (東大), 鳥海不二夫 (名大), 篠田孝祐 (理研), 風間一洋 (NTT), 栗原聡 (阪大), 野田五十樹 (産総研), 丸井淳己, 松尾豊 (東大)

「東日本大震災 情報行動調査報告書(2011.09)」による震災地でのアンケート(ソーシャルメディアの活用度合い)
本当に活用されたのか? 何が呟かれているのか?
ツイートを通して震災前後の事象・変化をどの程度観測できるかを検証
 130万ユーザ->毎日5回以上ツイートしてるユーザ約20万
 通常時からの逸脱(増加/減少)によってある程度観測可能

naltoma: 通常時からの逸脱である程度観測できるという話だが、その「通常時」をどう捉えるか次第で「取りのがしているイベント」も多々ありそうな気が。ユーザ数+location以外の時系列データとしてどのようなものが考えられるか?(例えば連続ツイートするユーザ数の変化? ツイート間隔? 極性? 【拡散希望】とかの特定語?)

Q: 上がる所下がる所、ユーザ切り分けとか見ていくとある程度見れそうだという話が例示されていたが、どう使っていけば良いのか。今回の例では説明がつきそうな所の例示だったように思う。何となくドロップがあって、とかそういう状況での新しい知見が得られるとかあったのか。
A: 違う例だが、ユーザのリプライ・平均投稿数をみたが平均数は減っている。一日に数百件ツイートするのはbotが多かった。あまり意味のある知見ではないが。まだまだ大雑把な検証のみ。

Q: 毎日5回以上投稿してるユーザに着目するのはどのような理由で?
A: 最終的には某かの有益な情報を抽出したい。今回の制約は、今回のトラブルでもツイートしやすいだろうという仮定で加えた。
Q: 震災の前にあまり投稿しないが、後には投稿するというような所もありそう。
A: 今回はそこは対象にしていなかったが、今後見ていきたい。

Q: 東京で最初の一日は避難、次の日は停電とかの例が予稿にあるが。
A: まだちゃんと分析できていないが、形容詞・動詞とかも見て見ると面白い側面がある。最初ネガティブなのが多かったのが少しずつポジティブなのが増えてくるとかも少し見えてきている部分がある。


A5-3 安否情報ツイートコーパスの詳細分析とアノテーションに関する一考察 (pp.1232-1235) ○村上浩司, 萩原正人 (楽天技研)

ANPI_NLP:安否情報タスク
 楽天のものでも誰のものでもないので好き勝手にやって欲しい
 ハッシュタグ: #anpi #hi-nan #j_j=helpme #save_[地名] など
 人手アノテーション
 トピック分類/人名・組織名に特化した固有表現抽出
時間軸からの分析
 タグの比率推移
  地震発生から数時間:「その他」多数
  3/12朝から:行方不明者、安否情報といった「要請」が増加。固有名詞、人名が増える。
  3/13: ツイート半分以上に地名、人名が載っている
  プロジェクト開始したのは3/14。一番検出すべき情報「要請」は3/12朝には既に出始めていた。
その他分析:全体の72%
 情報提供/非日本語ツイート/安否情報/ハッシュタグ告知/その他
  外国語(U)タグ付きであるべき
  安否情報(I/L/P)付くべき
   頑張ったはずだが結構漏れがあった
 情報提供:インフラ関連/避難・避難所/救援活動/交通機関などなど
  情報の構造化、情報抽出が必要
情報の信頼性判断:憶測/伝聞/引用/事実性/信頼性
コーパスどうするのか

naltoma: 直接的なコーパス利用については、そういうのを管理する国レベルor国際レベルでの組織をどうにかしてホゲホゲするという運動まで持っていかないと難しい話だったりするのかな(妄想)。
naltoma: タスク毎に独立して最適化するというアプローチで構わないとは思うが、頭脳プロジェクトみたいな形で統合しやすい形で設計できないと後々困りそう。

Q: 救援活動とかが出てきたが、取れると嬉しそうだが、もともとニュースとして出てそれのコピペとして流れていて、そこへの誘導をできると良いのでは。
A: ツイッターだけではなく、広いソースから取るというのはとても重要。ニュースから取ってくるのも情報の信頼性の観点からは重要。

Q: こういう情報について基礎研究でもやりたいと考えた時に、sinsai.infoが人手でやっていた。殆どゴミばっかりなのでめげてしまってボランティア辞めてしまう人が多いという問題があった。早めに気づいて一緒にやれたら、ほんの簡単な情報抽出だけでもできたら良かったのにと悔しい想いをした。余裕が無かったのか、連絡取り合っていたのか。
A: sinsai.infoさんとは連絡を取っていて、一緒にやりたいという話が届いていた。ただその時点では何をしているのかも分からず、何をしたら良いかということについてリプライが来ず、そこで途絶えてしまったというのがある。リスト提供するということはあった。

Q: アノテーションの粒度が低いという話だったが、ガイドライン的なものはある?
A: ANPI_NLPのWikiには残っている。凄いざっくりとしたイントロになっている。
Q: 高めるような話はある?
A: 多分25分後ぐらいにそういう話が。


A5-4 「東日本大震災関連の救助要請情報抽出サイト」構築と救助活動について(pp.1236-1239) ○相田慎 (豊橋技科大), 新堂安孝 (フリー), 内山将夫 (NICT)

東日本震災支援 #99japan
救助要請情報抽出して、実際使ってもらったという話
初期のTwitter情報:報道新聞よりもきめ細かい情報があった(主観。デマもある)
救助要請を拡散しようという動きが多々あったが、実際通報されなければ意味が無い
 Twitterから救助要請の一次情報」だけを表示する:大量表示(閲覧者に判定委ねる)+フィルタリング
 二次情報は状況報告・感想が主と仮定
 住所情報、ライフライン未復旧/安否情報に起因する語
 非救助要請情報:過去のデマに含まれていた固有名詞/報道公式アカウント(通報済みの可能性高い)/有名人など/放射能関連の語
 「1500ったー」から収集
 判定キーを抽出し、同値類ツイート
今後の課題
 取得し続けているログ(2千万程度)から現在のニーズ分析
 適応的な震災復興支援系構築
 活動記録を正式に残す(論文など)

naltoma: フィルタリングによって逆に漏れてしまったものもありそうだが、漏れ具合のチェックはできそう?

Q: こういういろいろ努力がされているがまだまだあまり知られていない。これは本質的な問題だと思う。それと、今回の例では大量の件数を表示しているが、どう見せた方が良かったかとかの知見があれば。
A: もう人グループぐらい、NTT docomo研究所だったかでツイートから形態素解析して地名とかを見やすくするというようなサイトを作られた人がいた。

Q: 81キーワードはどういう風に発見したのか。
A: その当時被害が大きそうだと思った所、沿岸部とかを持ってきた。
Q: ツイートを見て考えたというわけではない?
A: 最初は #j_j_helpme だけで良いかと思ったが、漏れが多いということで増やすことを考えた。ただしノイズが増えるので、頻出する地名を加えていった。


全体討議

誤解語釈が多々あると思います。ご注意ください。
村上さん・ニュービッグさんらのプレゼン資料公開されるようなら後でリンク張ります。


楽天・村上浩司さんによる問題提起、その後の議論

告知:「不自然言語処理 枠にはまらない言語の処理」〆切延長のお知らせ: 3/20->4/27

一緒に考えたいこと
 コーパスが必要な言語処理
  何をするにもまずはコーパスが必要:事例の豊富さ/ただのデータでも良いがアノテートされてると嬉しい
 安否情報ツイートコーパス:6万以上のツイート
  しかるべき手順のもと、何とか公開できないか?
   個人情報保護法:非常時から定常時へ。震災から1年経ち、簡単に公開できない
   Twitter社との権利問題:再配布禁止?アノテーションは非合法?
 どうすれば公開できるか?
  生死というナーバスな情報=リスク
  京大コーパスと同様に扱う:ツイートIDとタグ情報だけ公開
  本当に使われる可能性はあるのか??
 公開できるならば
  問題点:間違いが多いので見直し必須。見直すならタグ仕様再設計、マニュアル整備。継続的なデータ蓄積。質の担保。
  汗かいて仕事してくれる人、団体はいるのか?
 前に進むために
  データが必要な人、団体はあるのか?
  データの利用に関わらず図災害NLP?
   災害が起こってからやること/起こる前にやること:タスクフォース?
 災害時のタスクサイクル
  課題は大きく分けて3種類
   (1) 災害時:準備した技術の適用
   (2) これから平常時側でやるべきこと:適用結果の分析/タスク再設定/必要情報同定/技術研究開発
   (3) より大きな枠組み(言語処理屋さん以外)での活動

Q: いきなりタグ付きコーパス必要かと言われても良く分からない。タスク再設定というのがとても重要だと感じていて、出発点はそこでは。縛り次第にもよってはTwitter社も折れてくれるかもしれないし折れてくれないかもしれない。
Q: Twitter社のデータを誰かが配るというのはほぼ無理?
A: リーガルな情報については良く分からないので確固たる答えは出せない。プライベートな情報を含むので簡単な再配布は難しいのではないかという理解。特に災害とかは重要度が高いトピックだと思うので、商用ではなくて災害向けに作ったものという特別な利用規約に持っていけるようにできたら、社会にとっても会社にとっても嬉しい姿だと思う。
Q: Twitterに直接問い合わせれば良い?
A: はい。

Q: 2つパラレルにやった方が良いと思う。IDやURLベースでのプランとリーガル調整プラン。ID側/URL側は多分大丈夫。リーガル側はこれから規約変えるというのは相当大変だと思う。

Q: どういうのをやって欲しいとかいう意見はあるか。
A: 基本的に対象とする問題が普通のNLPと違っていて、ダイレクトに社会にフィードバックがかえる。こういうのをやりたいかという動機が重要で、そうでなければ持続性が持たないのでは。
A: 個人的には猛烈にやりたくて燃え上がっている。単に災害で世の中に役立つという大義名分だけでは難しい側面もあると思う。ポイントが別にもあって、災害時にはガソリンが無くなるとは誰も思っていなかった/原発壊れる/計画停電などなど、予測できなかったイベントが多かった。どういう情報を抜いてくるかが分からない状況下で「抜いてくる」というタスクは一つ大きな面白いタスクだと思う。 予想外のニュースが来た時にそれをテンプレートとして用意ドンでタスク化するとか。 二つ目は、その情報だけを取り出してくる、フィルタリングするという話。テンプレートを何分で埋めれるかというタスク。もやっとしているところはあるが、タスク設定。 臨場感もあるし、やることで見えてくる知見もあるのでは。
Q: 災害ツイートコーパスがないとできないことと、そうでないことはあるか。その例ではそれがなくても練習はできなくはないのでは? そのコーパスじゃないとやれないことは何?
A: 災害時だとRTのされ方とかは違うかなというのはるかも。そうじゃないかもしれないが。それ以外の時でも似たようなことができるのか、災害の時でも使えそうかという一段を挟む必要はあると思う。強い理由が無ければ災害時の設定/コーパスを使うのは必要だと思う。慎重に進める必要はある。
A: 何か起こった時に何か作れるかというのは確かにそう。ANPI_NLP始まった時は何も決まっていなかった。方法論はあれこれあるかもしれないが、それまで無かった状況下/イベントに対する方法論というのはあって良いと思う。
A: 人工知能学会で災害基盤構築という話があって、そことも協調していく必要性があると思う。
A: 私はコーパス欲しい。公開できないとしても、凍結してたのが解凍して使えるようになるとか。災害時に人名なり場所なりが取れるソフトがあると、次回に活かすことでさらに一段上にいけると思う。辞書なりはこれから貯めていけば。

Q: ANPI_NLPにもいろんな情報があって、人名辞書提供して頂いたりとか共有する形になっているのもいろいろある。パッケージ化してドキュメンテーション付けておいておくのはできそう。

A: NLPを使ってというよりももっと大きな枠組みで考えたい。大きなプラットフォームに載ってNLP使っていくというのが本筋に思う。災害に向けてどう貢献できるかという点ではより大きな視点で。

A: 災害に対して一般的に社会では避難訓練が行われる。NLPでもTwitter使って何かしら情報見つけるということだが、いつ来るか分からないものに対して素振りだけしててもだらけてしまいそう。身を引き締めるものがあると。

A: 何か役に立つというのはとても難しく、sinsai.infoで求めているものがあったができなかったとか。他にも呟くことで送り込もうとかエンジン作ったが、アプリ作ってくれる会社が忙しくてできなかった。 役に立ったということを利用者から声が届いたということを共有できたのは良かった。 普段から使えるものを作ることが大切では。迷子とか電車付近で倒れてるとかいうのが呟かれているかもしれない。普段から使えるものを作り込む事を考えて動く。

Q: 研究普通にしてるとまともに動くよりは結果さえ出れば良いという側面が確かにある。不特定多数が落ちずに使えるものを、動くものをちゃんと作るというのは確かに重要。

naltoma: 個人情報云々等で直接的にデータを使えない場合、検証するためのプラットフォームとして、時間&場所を加味した大規模なマルチエージェントシステム型シミュレーションなりで「災害時のマイクロブログストリーム/マスメディア報道/公共機関対応」みたいなのをひっくるめて再現/近似できると嬉しい? 表記揺れとか多様な人間モデルとかも盛りまくりで何が必要か自体の分析からだと思うけど。災害初期/中期/後期とか何かしら状況設定して特定状況毎に切り分けても良いかもしれないが。
naltoma: 後で俯瞰するようなスタンスではなく「今ホゲホゲこういうのに関するものを見たい/そのある特定側面を見たい/etc.」というようなタスクを体系化できるのかな。
naltoma: 調べたい/抽出したい対象というのがエンティティとかイベントとかトピックみたいな言葉で説明されることが多い気がするが、それらを真面目に分析して体系化する必要あり? そんなの無視して「時間軸+α」みたいな形で絶対的な軸だけを中心にして機能語/実体語/etc.とかを横断抽出するみたいなアプローチもあり得そうではある。


京大・グラム・ニュービッグさんによるサマリ

災害時における言語情報処理ロードマップを作ってみた。平常時準備->災害時対応->災害後サポート。普段から使えるもの。ML作ってみた。
 日本語ML:URL
 国際ML:URL
平常時/災害時/災害後サポート各ステージでのタスク。

A: 分野横断的な連携をその日や翌日とかのタイミングでできるような場ができてると良いと思う。
Q: 良いとは思うが、当日以降になると忙しくて困難かもしれない。
A: それはその通りだが、そういうことがやれる対応をする。

A: 災害後のサポートはとても重要だと思う。被災地終われてその後何年もメンタリティのケア等を背負う必要がある。NLPに何がやれるかはまだ分からないが、非常に大きなインパクトがあると思う。
A: Hope Japanという放射線関連のプロジェクトをやってるが、とにかくデマが多い。そしてデマを信じている人も多い。放射線とかに詳しい物理学者とか医学者とかいるが、その人向けにTwitterから得られた情報を見せて、その方にデマ真偽判定や分からないといった分類をお願いするような。言語処理の枠組みとしてそういう連携ができれば、アノテートされたデータがとれる側面もあって嬉しいのでは。

A: 頑張りましょう!

Tags: , ,