言語処理学会第19回年次大会(NLP2013) 2日目終了

Share on:

m_20130314150112514167a8f2df0 m_20130314161326514178966306e

NLP2013の本会議2日目が終了しました。一緒に参加してる学生は体調不調でポスターセッションは見れなかったっぽい。直接話しながら聞けるし、これぐらい盛り上がってる場もなかなか無いので勿体無いとは思うけど、無理しても仕方ないので明日チャンスがあれば、かな。

今日の内容は、一般セッション1件、論文賞を受賞した人らによる講演3件、招待講演1件、ポスターセッション2件で、早朝から夕方まで詰まってるタイトなスケジュールでした。

招待論文講演1では、「片仮名列から単語列へ変換する」というタスクを解決できると、従来の形態素解析器が苦手としているケースでも精度向上するだけじゃなく、「アンチョビのソース」みたいな状態で「ソース」がプログラムコードなのか調理でのソースなのかといった曖昧性解消にも繋がるし、結果として機械翻訳における精度向上にも役立つというタスクらしい。人間でも「後で気づく」ことがあるけど、その1シナリオをうまく実装しているなという印象。

招待論文講演2では、一般的に検索エンジン使ってる状況下では一度の検索で十分な結果が得られるとは限らないので、再度検索し直す(=リランキング)ということを繰り返す。という状況下を想定して、インタラクション後(特定ページを選好した後)のリランキング結果を良くしようというタスクに取り組んでいるらしい。というか何度かリランキングという言葉は見かけてたのだけど、その人達が受賞してたのね。

招待論文講演3では、オフショア開発等でもニーズが出てきた「外国人の書いた日本語文における助詞誤り」を翻訳という捉え方で自動修正したいというタスクらしい。「誤りパターン」を機械学習させるのは良いとして、擬似的な誤りデータを生成させ、それを「実際に誤っているデータ」との差をドメイン適合(素性空間拡張法)し、適合した疑似データを使って機械学習しましょうという話。個人的には、実データをベースに擬似データを生成するってのはお試しでやったことがあるのだけど、思ってたほどの効果が得られず放置してました。ウマく疑似データを生成してやらないと効果が薄いらしいけど、ここにドメイン適合持ってくるのは目から鱗だ。

招待講演2では、ヴァーチャル日本語-役割語の謎-もっと知りたい-日本語の金水先生による講演で、「おお、そうじゃ、わしが知っておるんじゃ」のように文章だけで「話者の人物像に密接に結びついた話し方(の類型)」についての話。田舎っぽさについては海外でも良く見られ、広い範囲での地方語を混ぜて(日本だと東西の地方語を混ぜて)田舎っぽさを演出するのが常套手段らしい。内容だけじゃなく話し方もとってもウマくて楽しかった!


目次


A4:評判・感情解析, 座長: 乾 孝司(筑波大)


A4-1 感情軸における感情極性制約を用いたマルチラベル感情推定 (pp.244-247), ◎江崎大嗣, 小町守, 松本裕治(NAIST)

文に含まれる感情を自動推定する
 複数感情が含まれることを考慮していない
 感情同士の関係を考慮していない
  嬉しいと悲しい/嬉しくない=悲しい?
   感情対モデルの導入+SVM回帰+極制約+軸制約
   Markov Logic Network
    SVM回帰と比べて、MLNはデータ数の少ないところで高い値を示している

naltoma: 感情対モデルと信頼性を用いた制約(極制約+軸制約)を導入しているが、
 話し手/書き手の特性に依存して調整する必要が無いか?
naltoma:
naltoma:


Q: エラー分析で、感情語の影響が大きいとは?
A: 「楽しかった旅行の思いでも冷めてしまった」は「楽しかった」に引っ張られて喜びと
 判定してしまった。
Q: 1文に含まれる感情語は一つという前提?
A: そうではない。

Q: 平均出してる結果は全サンプルでの結果?
A: 提示したのはマクロ平均。マイクロ平均でも同じ傾向を示した。

Q: 制約は相当強い制約に思えるが、感情毎の強さはデータ数で決めた?
A: データ数ではない。

Q: マルチラベルがポイントだと思うが、評価はマルチでやらない?
 喜びと悲しみが同時に出たとして、それを同時に評価。
A: そういった指標は今後考えていく予定。

Q: 感情語を含む文と含まない文があると思うが。
A: 今回は含む文という仮定。
 感情が生起しているという前提で推定したかった。
 生起しているかしていないかという分類器が必要。
Q: 「楽しかったけどホゲホゲ」とか、文全体を読んだ時の感情を導く必要がある?
A: その通り。


A4-2 レビューテキストを対象とした評価条件の抽出手法 (pp.248-251), ◎中山祐輝, 藤井敦(東工大)

評判分析
 「対象:属性:評価表現」評価値?
 「目的:条件」別目的には?
 「状況:条件」別状況では?
  評価に関する条件(評価条件)を考慮した評判分析の高精度化を目指す

レビュー文からの評価条件抽出
 入力:対象、属性、評価表現が抽出された文
 出力:評価条件

naltoma: 評価条件が別の文に書かれているor示唆していることはないか?
naltoma: 評価条件と属性は明確に異なるもの?どちらかが上位?部分的に重複?
naltoma:


Q: 文節単位で見た時に、一番右側の分節を当てることが重要かつ簡単に思う。
 そこから左に遡るとか。評価表現中の当てやすい分節というのはないのか?
A: 決めることはできないが、前の分節からの距離が近いほど当てやすい傾向がある。
 評価表現から前の分節をどんどん辿っていって当てていく手法が考えられる。
 系列を考慮した手法として検討中。

Q: 何が評価条件なのかというアノテーションの基準を決めるのが難しそう。
 例えば最初の例の「値段に」は条件?
A: 今の所条件と考えている。値段と綺麗を比較した時に、恐らくギャップが生じる。
Q: 基準を決める際に難しかった他の例は?
A: 原因なのか条件なのかの判断が難しい例があった。
 特定利用者や特定状況を想定しており、それ以外であれば根拠、そうでなければ条件として決めている。

Q: 評価条件は対象に対する条件を求めたい?
 「可愛い女の子だから楽しかった」は今回の対象?
 レビューはオブジェクトがあってこその評価。
 対象とは関係ない条件も取れてしまわないか?
A: 対象というのが動作の主体を表しているということ?
Q: 「動物園に行った。女の子と一緒だったから楽しかった」とか。
 これは条件じゃない?
A: 今回は検討していなかった。


A4-3 Twitterにおける観点に基づいた意見文クラスタリング (pp.252-255), ◎鷹栖弘明, 小林聡, 内海彰(電通大)

意見にはいくつかの観点が存在
 Twitter対象に観点毎に意見分類
  キーワード検索>関連ツイート収集>ツイート特定>周囲ツイート収集>意味的クラスタリング

naltoma: 「観点」はどう抽出/設定する?
naltoma: URLや他媒体、他ツイートを取り上げて意見を述べる場合があるが、それは後で考慮?
naltoma: 「関連ツイート」対象はその本人の時間的前後ツイートのみ?


Q: 目的について。やりたいことは、特定意見について観点毎にまとめるようだが、
 時間が似ているというのがピンと来ない。
A: あるトピックについて複数観点について述べるということに、
 内容について類似度を求めるなら、時間類似度は必要無いかもしれない。
 一人のユーザが複数観点を述べることは想定していなかった。

Q: クラスタリングすると何が取れるか分からないと思うが、
 取れたクラスタが観点毎になるようにコントロールしている?
A: 特にコントロールはしていないが、頻繁に出てくる単語/文字列については、
 例えばニュース記事のタイトルなど、
 それだけでクラスタリングされてまずいことになる。
 そこの補正はしている。

Q: 実際に出てきた結果、クラスタはどうだったか?
A: 「地震、状況、政党」とラベル付けできるクラスタが構築された。


A4-4 情緒推定における状況の対称性を考慮するためのパターン辞書の拡張 (pp.256-259), ◎野口和樹, 徳久雅人, 村田真樹(鳥取大)

パターン辞書:情緒名/判断条件/情緒原因/情緒主
 入力文「子供がピーマンを食べる」
 状況設定:子供はピーマンが嫌い ->希望出力「嫌だ」
  生理に「不快」な状況も考慮する必要がある
   対象な情緒属性の追加により網羅性向上
    情緒原因毎に一定数調査+機械的追加

naltoma: パターン辞書を拡張していくことで、逆に誤ってしまう事例はなかった?


Q: 「情緒」とは? 「感情」との違いは?
A: 一般的に感情と呼ばれているものとの差は無いと思う。
Q: 感情分析における位置付けや、使われている用語が一般的な用語と異なるため、
 余計に位置付けが良く分からない。
A: 情緒推定はテキストマイニングへの寄与を考えている。
 情緒主が得られれば、その人はどういう感情を持ちやすいというようなことへの利用を想定。
Q: 「同意」とかも用語が一般的でないので、整理した方が。
A: ありがとうございます。

Q: 辞書にパターンを追加しているが、情緒判定での評価になっている。
 目的を考えると、パターンが正しいかを直接判定することが良さそうだが、
 そうしていない理由は?
A: 対象なものを追加したということで、元々の情緒属性が含まれてしまう。
 追加したものに絞らずに拡張性の妥当性を調べる方が優先度が高いという判断。
Q: 対象な情緒属性を追加しているかどうかを評価した方が良いのでは?
A: 元々情緒属性があるというのと、継続的に進めている辞書が完成したということもあり、
 全体の評価になった。

Q: 知識ベースについて。最終的なゴール対してどのぐらいに達していて、
 どのぐらいで完成しそう?
A: 入力文に対して「情緒主と関連事物の関係」が分かる前提になっているため、
 そこを自動判別する必要もある。実際にブログでの評価をしてみる必要がある。


A4-5 ソーシャルメディア上の発言とユーザー間の関係を利用した批判的ユーザーの抽出(pp.260-263), ◎高瀬翔(東北大), 村上明子, 榎美紀(日本IBM), 岡崎直観, 乾健太郎(東北大)

実態(企業/製品/人など)に対する意見が大量にある
 風評被害を起こすような非難も
 特定実体の非難ばかりを行うユーザ/評判を落とそうとしている->風評被害防止
 批判的ユーザ(日常的に特定実体を非難)の抽出
  揶揄や省略、くだけた表現
   「使いづらい商品、流石です!」
   「A社の新製品が使いづらい」←「@ 馬鹿だからだな」←どちらを非難?
  同じ意見のユーザが互いに指示関係で結びつく性質

naltoma: mention, 非公式公式RTを除いても問題にならない?(自身のツイートだけで
 十分判定できるぐらいその頻度が高い?)
naltoma: 風評被害の場合だと「特定物体」とは限らず様々なものをRT(支持)しまくる
 ユーザがいると思うが、それはうまく考慮できる?
naltoma:


Q: テキスト解析とグラフ解析を組み合わせたのがポイントとのことだが、
 グラフ解析はどのぐらい寄与したのか。
A: 今回は入力をランダムにしているため、グラフが分断されても問題無い。
Q: 揶揄とかについて、グラフ解析の結果をそちらにフィードバックすることはできそう?
A: できると思うが、まだやっていない。

Q: グラフ分断について。A社で検索したツイートとのことだが、それが繋がる?
 たまたまお互いがリツイートしている?
A: 1ヶ月間収集すると1万人以上集まり、その中から発言数が多いユーザに絞ると
 関係が密になっている。

Q: Precision/Recallグラフで戻ったりしてるカーブはあまりみられないと思うが、
 それは何故?
A: 本当は非難じゃないものを非難と取ることもあるため、そうなることがあると考えている。


招待論文

論文1: 言い換えと逆翻字を利用した片仮名複合語の分類, 東京大学・鍛冶, 喜連川

言い換え表現の認識に基づく片仮名複合語の高精度な分割
 ゴルゴンゾーラソース -> ゴルゴンゾーラ/ソース
 言い換え表現の認識:ゴルゴンゾーラのソース Gorgonzola sauce

片仮名複合語は日本語において新語が形成される典型的パターンの一つ=未知語の源泉
 生産性が高く、辞書資源への登録が追いつかない
 単語分割器は未知語の解析が苦手 [Emerson 05]

タスク:片仮名列から単語列への変換
 構造予測問題として定式化
 単語n-gramなどの基本的な素性+言い換えと翻字に基づく素性
  言い換えでは、「助詞は単語の切れ目にしか挿入されないはず」
   アンチョビソース->アンチョビのソース
  逆翻字では、「英語では分かち書きされるので、分割箇所が明確」
   「…アメリカではジャンクフード (junk food) と言えば…」

naltoma: 「取り過ぎてしまう」ことで分割誤りしてるケースにはどんなケースがあるんだろう?
 それは抑えられそう?


Q: 比較結果について。新素性使わないのはどういう提案手法?
A: 最終的に提案したいのは新素性を使うもので、使って無い方はベースラインとして独自実装。
 単語unigramとかをしよう。
Q: 翻字や逆翻字自体の事例は多数あるが、どう違う?
A: 翻字研究でどう分割しているかは、読んだ限りでは形態素解析器を通したケースが多いように感じた。

Q: 和製英語の問題。ガソリンスタンドは括弧表現が出にくいとかありそうだが、
 悪影響があるのか?
A: 目視限りする限りでは和製英語も取れていた。
Q: unigramが効いている?
A: 翻訳対としての抽出結果として取れていた。

Q: 片仮名で書いてる和語に対する悪影響は?
A: ネコとかも取れてた。悪さをするというのは確認出来ていない。

Q: 精度評価をEDICTでやってるので取りやすいところで検証しているのが勿体無いと感じた。
 実際のコーパスに適用した時にどうだろうか。
A: webから収集して検証したいが、集中したい所以外の問題が多々あってやっていない。
 ある程度長いものが取れると、遠くの関係まで見れるのが効きそう。

Q: 共起も使えるのでは?
 統計的機械翻訳と比較してどうなのか? 文として翻訳したとき。
A: 共起も使えるとは考えているが、まだ比較していない。
 バイリンガルコーパスを使うのが困難で、モノリンガルから取れる所が嬉しい。


論文2: テキストの表層情報と潜在情報を利用した適合性フィードバック, 京都大学・原島, 黒橋

一回の検索で良いランキングが得られるとは限らない
 検索結果をリランキングする手法が必要
  適合性フィードバック:フィードバックと類似する文書を上位にリランキング
   従来手法:文書に表層的に現れる単語だけを用いて類似度算出
   提案:潜在的に現れうる単語も用いる+潜在的単語の分布はトピックモデルで推定

実験
 NTCIR 3 ウェブ検索評価用テストセット:1100万ページ+47検索課題
  検索課題毎に約2000文書に適合度が付与されている

naltoma: 類似文書をリランキングしているが、
 ユーザがリランキングする際には「同じ側面/視点」について述べている
 という意味での類似では? トピックモデルがそこに近いことをやっている
 かもしれないが、保管されるデータが側面/視点とは限らないので、
 類似文書検索に機能するのは理解できるが、リランキングとして機能しているのかが良く分からない。
naltoma: (トピックモデルのような形で潜在的な嗜好を見積もれる?)


Q: 提案手法とライバル手法を比較する際、ステップ2は同一?
A: INITはステップ1そのまま。ライバルはαを0にしている。
Q: 提案手法はステップ2と4の両方が効いているように思うが、
 潜在情報のフィードバックというより最初のLDAが効いてるのでは?

Q: 検索課題毎の内訳はある?
 トピックによって効き方が違うとか。
A: そこは見ていない。

Q: 人手でフィードバックするという話だが、やった人が本当に選んだ?
A: 正解と書いてあるものを選んでいる。
 テストセットの中にある代表的な正解文書を使っている。
Q: 初期検索群に出ている?
A: とは限らない。

Q: relevance feedback で文書特性を比較してリランキングする手法と比較してどうなる?
A: やってみたい。

Q: 潜在情報フィードバック時に、線形和ととっていたがどう設定した?
A: 開発セットでチューニングした、ベストな値を採用。


論文3: 小規模誤りデータからの日本語学習者作文の助詞誤り訂正, NTTメディアインテリジェンス研究所・今村, 斎藤, 貞光, 西川

外国人日本語学習者の作文誤り訂正
 教育目的だけではなく、オフショア開発でのニーズ
 日本語学習者作文の誤り傾向の調査(正しいと判断できる最小限の修正をするよう添削指示)
  翻訳と同じ考え方:誤りを含む学習者作文を正しい文に変換することで対応

モデル学習のための事例が大量に必要
 1. 日本語平文コーパスの利用
  修正文相当と看做す
  n-gramニ値素性のスパースモデル+言語モデル確率実数値を、識別学習で全体最適化。
 2. 疑似誤り文によるペア文の拡張
  学習者作文を模した疑似誤り文を自動生成
  疑似誤りと実誤りの分布差をドメイン適応技術で対応
   素性空間拡張法 [Daume 2007]

naltoma: ドメイン適応で自動生成したものを補正するという視点が面白い。
 がしだし独自モデルで疑似事例生成&ドメイン適応させて学習させると再現率向上に寄与?
 -> 疑似誤りはうまく作らないと適合率/再現率に寄与しにくいらしい
naltoma: ドメイン適応させるとして、ターゲットはどのぐらいの事例があれば良いのだろう?
 ドメイン次第なのは分かるが、何かしら指標が無いか?


Q: 助詞の追加は名詞の後に限定しているようだが、
 名詞の後に既に助詞があるという状況でも挿入すべき?
A: 挿入すべきかどうかは考えずに、可能性があるという視点で許容している。
 できるだけ削除したいので、そういう制約を設けるというのもリーズナブルだと思う。

Q: 使う学習の事例は助詞だけが誤っている文?
A: はい。
Q: 訂正コーパスの中に助詞と同時に他の誤りもあると思うが、それは使わない?
A: 使っていない。
 今回は助詞のみの誤り。

Q: 誤りコーパスを書いた外国人はどれぐらいの日本語能力がある?
A: 日本滞在歴半年〜6年ぐらい、中国の方。
 日本語能力自体はばらけていると思う。ただし、大学に通っている方。

Q: テストの時は他の誤りも含む?
A: テストの時にも助詞誤りのみ。
Q: そこをいれるとどれぐらいの性能差が出そうか?
A: まだやっていない。


招待講演2, 司会:川添 愛 (NII), 役割語研究の現在, 金水 敏 氏(阪大)

講演概要資料: PDF
 書籍
  ヴァーチャル日本語-役割語の謎-もっと知りたい-日本語
  役割語研究の地平
  役割語研究の展開
  日本人の知らない日本語

役割語(話者の人物像と緊密に結びついた話し方の類型)の例
 「おお、そうじゃ、わしが知っておるんじゃ。」
 「あら、そうよ、わたくしが知っておりますわ。」
 「うん、そうだよ、ぼくが知ってるよ。」
 役割語=話し方と人物像(キャラクタ)の連合
  ステレオタイプの一種とも考えられる
  ミスマッチの感覚を共有できている(社会的に共有されている)
   共有があるからこそ創作の場で使うことができる

役割語の基盤
 現実(認知)>個体/共同体(共有,ステレオタイプ化)>作品(仮想現実における創作,受容)>個体(制約)
  生成>継承を伴うが、必ずしも現実に基づかない: e.g., 宇宙人の声, 動物の喋り方
  現実の発話行動に制約をかけることもある: e.g., 女の子はこう喋るのが普通
 老人語は歴史的に遡ると江戸時代には既に出現
  若者:江戸語 老人:上方語

研究の展開
 対称研究、翻訳論、翻訳研究
 英語の役割語:方言(e.g., ハリーポッターのハグリッド)。特定語においては性差も。
  田舎っぽさを演出する常套手段:東西幅広い方言を混ぜる
 ポピュラーカルチャーに特化された特殊な言語ではなく、言語の本質を捉えるための有効な視点の一つ

naltoma: 役割語があるためにN次創作活動が促進される触媒として機能してたりする?
naltoma: 何故ここまで日本語では役割語のバリエーションが豊富なのだろう?


Q: 共通して持つ役割語が時代と共に変わるということだが、
 時代毎に一つなのか、複数あるのか。
A: 今日見せたのはかなり共通して絞られたもの。もっと分裂しているタイプもあるはず。
 小説読んでても女性台詞で古くさく感じることもあり、
 現代という一つを取っても感覚がズレてくる。
 大阪弁の例では、大阪弁が下手だとボロクソに言われる。
 他では許容されたり、感謝されたりするらしい。

Q: 動物の文末詞がでてきたが、相手が知らない情報をシェアしているかという
 分析は可能だろうか?
A: 神戸大のサダノブさんが、キャラ語尾をキャラ・ポピュラとキャラ・助詞に分けて、
 起源や機能の違いを明らかにしている。

Q: どうして日本語だけここまで多彩な役割語があるのだろうか?
A: まだ日本語だけかは分からない。
 ヨーロッパの例では「私」を言うにも自由度が多数あり、語順にも自由度がある。
 必要条件ではなくて十分条件。韓国語もコンコーダンスが無いという点では同じだが、
 「私」の言い方は一つ。条件が整っていて、かつ、それを使い分けているというのは、
 今の所日本語ぐらい。古いものを余り捨てないというのも影響していると思う。
 中国語の場合はどんどん捨てていく。日本では多様性を趣味的に愛するフェチっぽい
 ところがあるのかもしれない。

Q: 電車に乗ってると男女での用語の使い分けが減ってきているように感じる。
 好きなものに付随している役割語が増えていくというようなことはあるのか。
A: あると思う。例えばオタク語等のように、そこに属する人たちが使うように
 感じる役割語というのが出てきやすくなっているかもしれない。
 ある特徴をつかみ出して利用すること自体は誰でもできる訳でもないし、
 細かすぎて通じないということもある。
 ある種の役割語における保守性と単純さというのはあると思う。

Q: 個人の役割について。ニュースらしくならなくなってしまう書き換えというのがある。
 「らしさ」がなくなる。格調が無いとか。お役所の役割、組織の役割、みたいなものについて
 研究している事例はあるか?
A: お役所的な公式見解的なものは「文体」と繋がってくると思う。
 サダノブさんの例では意図的ではなくにじみ出るものだと主張している。
 役割語というよりはスタイル研究に近いのでは。

Q: 引用方法にも書き手がコントロールしている側面もありそう。
A: これまでの話はプロに近い作り手の立場からの話だったが、
 日常談話の中でも他者の話をリポートするというのは良くある。
 そこでもうまく引用しないと話が伝わらない。
 役割語的な機能や知識は日常で運用している。


P1: ポスター(1)


P1-2 当事者による議事録を用いたミーティングの中心的課題の特定 (pp.326-329), ◎臼田泰如(京大), 高梨克也(JST)

最終ゴールはまだ決まっていないようですが、「似たようなテーマについて話合っている複数グループ。ワークショップのように中心人物があれこれ用意して話を進めているケースや、ブレストチックに話を進めているケースで、参加者自身が作成した議事録と書き起こした討論ログを付け合わせて何かしたい」みたいな感じっぽい(多分)。取りあえずは両者に共通しているものを重要トピックとして抽出するとかいうことをやってるみたい。


P1-9 数量の大小の自動判定:「彼は身長が2mある」は高いか低いか (pp.354-357), ◎成澤克麻, 渡邉陽太郎, 水野淳太, 岡崎直観, 乾健太郎(東北大)

個人的にはそれを判断する状況&主体によって変わるから、その状況や主体を自動抽出するという話かなと思って聞きましたが違いました(そこは今後の課題っぽい)。今回は、「70億人の水不足→沢山の人々が水不足→深刻な水不足」というような推論するために必要な「大小知識」を自動獲得してみるという話だったらしい。


P1-17 ナイーブベイズ法を用いた意味役割付与に関する実験的考察 (pp.386-389), ◎岩澤拓未, 杉本徹(芝浦工大)

述語に係る語が果たす意味的な役割(深層格)を自動付与しようというタスク。事例の偏り、特に極端に少ない事例に対する問題(ゼロ頻度問題、スパースネス問題)に取り組むため重み調整してみたことで多少回避できたとか。精度的には事例数の多少にあまり影響しないらしい。


P2: ポスター(2)


P2-1 博物館の展示解説に対する興味の具体化を支援する可視化手法の検討 (pp.402-405), ◎梅本顕嗣, 谷口祐亮, 小島正裕, 西村涼, 渡辺靖彦, 岡田至弘(龍谷大)

visualization, summarization の一種。出発点が「博物館の展示解説」で、確かに「ある展示を見たまま何分も解説音声を聞き続けるのは怠い」と思うのだけど、解決手段がそれに対する特化したシステムには見えませんでした。良い意味では汎用性があるのだけど、悪い意味では新しい点が良く分からず。


P2-2 意味的逆引き辞書『真言』 (pp.406-409), ◎粟飯原俊介(九大), 長尾真(京大), 田中久美子(九大)

システム名は「真言」と書いて「まこと」。目標は、比較的自由度の高い記述で入力される「ホゲホゲでフガフガっての何て言ったっけ?」に答えることらしい。似たようなの一杯ありそうなのだけど、発表者曰く無いっぽい。


P2-6 文字列の出現頻度情報を用いた分かち書き単位の自動取得 (pp.422-425), ◎岡田正平, 山本和英(長岡技科大)

一般的な形態素解析器(分かち書き器)は辞書を持っているのですが、そういう辞書がないだけではなく正解データも無しに分かち書きできるシステムを作りたいという話。考古学とかでの「誰も読めない古代語の解析」みたいなものかなーと。辞書や正解データ無しというのは、そこの整備コストがゼロで済むという点では確かに嬉しそう。だけど、現状でのシンプルな頻度ベースでは、広く使われるようになった単語(=とっくに辞書登録されてる単語)しか分かち書きできそうにないのが問題。まだ導入実験のようなので、今後に期待。


P2-9 わかりにくさと修辞ユニット分析 (pp.434-437), ○田中弥生, 宮部真衣(東大), 保田祥(国語研), 荒牧英治(東大)

「わかりにくさ」は読み手によって、もっというと読み手の知識や状況によって異なると思うのだけど、そこら辺は今後の課題っぽい。現時点では「文脈化程度」を定義して、それにもとづく分析を通して「文脈からの分かりにくさ」がどのようにどのぐらい影響しているかを調査しているっぽい。


P2-11 教師あり機械学習を用いた段落の順序推定 (pp.442-445), ◎伊藤聡史, 村田真樹, 徳久雅人(鳥取大), 馬青(龍谷大)

レポート/小論文/論文あたりをを対称にした話かなと思いきや、対称は新聞でした。媒体毎に特性が異なると思うのだけど、そこはまだ意識していないとのこと。現時点でもまだ精度高くない(=適切な素性を作り込めていない)ですが、青空文庫でも試してみたいとか。小説には小説特有の段落があると思うので、もう少し何をやりたいかを練った方が良さそう。


P2-14 歴史の選択問題を解くため必要なフレーム的知識に関する考察 (pp.453-456), ◎板持貴之(東大), 三輪誠(マンチェスター大), 鶴岡慶雅, 近山隆(東大)

RITEの一種だと思いますが、大学入試の歴史問題における「選択問題」で、「確実に誤ってるもの」をうまくスコア評価したいという話。現時点では人物名に絞って、Wikipediaから自動で必要となる背景知識(問題文上では出て来ない知識)について収集し、フレーム的知識表現を構築していってるらしい。基本的には単文での判定を想定していて、「文1,2とも単独では正しいが、組み合わせがおかしい」みたいなケースは考えていないというか必要なさげっぽい。少なくともRTEベンチマーク的にはそこは見ていないとのこと。ただし、単文判定でも「単純に正誤判定」するだけではうまくいかないことがあり、「4択で○○××と判定したらどうするか」とか、別の問題があるらしい。


P2-18 ユーザの視点を考慮したレビュー文の比較 (pp.468-471), ◎坂梨優, 小林一郎(お茶大)

膨大なレビューから「自分が知りたいトピックに関する文を収集したい」っぽい。1文を文書としてLDAすることをベースとして、WordNetやジャッカード係数等で制約かけて絞り込んでみたという話かな。


P2-22 段落見出しの自動生成に向けて (pp.484-487), ◎川口人士, 佐藤理史, 駒谷和範(名大)

重要単語抽出問題として設定して、単語抽出した場合とそれに関係する別語も用いた場合との2種類の見出し生成をテストしてみたという話らしい。見出し生成してる事例がないという話だったけど、そうなの?