Posts Tagged ‘学会’

「ロボットは東大に入れるか」キックオフシンポジウムへの参加記録

木曜日, 12月 15th, 2011

ロボットは東大に入れるかのキックオフシンポジウム(公開講演会)に参加してきました。備忘録としてのメモや考えさせられたことのメモです。

参加するにあたって個人的に考えていたこととしては、(1)用紙上の領域認識(どこが問題文で、図表があるならどういう区切りになっててどう対応しているかの識別等)、(2)領域毎の解釈(問題理解、問うてる対象推定、図表の言い表している内容理解等)、(3)手持ち材料を用いた戦略立案(どのように解くかを検討・推定等)、(4)最適戦略に基づいたor各種戦略に基づいた回答毎に妥当性判断、といったサブ問題に分割されるのかなと想像しての参加でした。

シンポジウムで得た情報から判断する限りでは、ある程度問題の分割方法を想定している部分はある(最終的には評価用プラットフォームとしてオープンなAPIを提供するっぽい)ようで、個別に詳細細分化して研究されている事柄を融合して総合的に取り組むことを促進しやすい触媒としての場を目指すというような趣旨と理解しました。実際、NTCIR RITEのような形でコーパスと開発用API(?)を公開しつつあるようですし。そういう意味では参加する前に想像してたことと大差がありませんでした。

一方参加して気づかされた点もあり、「東大入試」を選択しているのはただの事例だと思っていたのですが、他大学ではダメという主張らしい。選択した理由は、(a)他大学のようにひねくれた問題が少なく、比較的素直な問題であること。(b)一般的な常識があれば誤読することがないようにコントロールされた日本語で記述されていること。といったことで、東大入試を選択したらしい。この「細分化されまくってる多分野の融合」と「一般的な常識の実現」というトピックが一つの主題になるらしい。問題細分化については、取り組みやすくなるという一方で見逃してしまう現象/知見なりが多々あると思うので、積極的に融合できるように「そのための適度なサイズのタスク」というのをうまく設計しようというのは良い試みだと思います。

飛び火した話題としては、入試を含めた教育の在り方なんて話題もありましたが、そこら辺は個人的にはあまり興味ないかな。「人間らしさ」という点では興味はありますが、コンピュータが実現できたら人間らしさが危うくなるとかいう訳じゃないし。

あと、前々から思ってたことなんですが、いわゆる記号論なりで事象を表記するというアプローチ自体が妥当なのかというニュアンスの話題も出てきてたのが嬉しかったです。記述できないことは実装できない、という主張自体に個人的には疑いを持っているので、何かしら新しい観点を主張できるようになりたいものです。

以下はプログラム毎の備忘録用にメモった内容です。
第2部はバッテリー切れのため手書きしてたのですが、後でサマリする予定です。
誤解も多分に含まれると思うので、ご注意ください。
→別記事として書きました。


目次
主催者挨拶 (坂内正夫・NII 所長)
 <第一部> 講演会
基調講演 (松原仁・公立はこだて未来大学) 人工知能のグランドチャレンジ -チェス、サッカー、クイズから東大入試へ-
「ロボットは東大に入れるか」プロジェクト概要説明(新井紀子・NII)
「人工知能にとってなぜ大学入試はチャレンジングか」(稲邑哲也・NII)
「知識を問う問題にコンピュータはどれだけ答えられるか」(宮尾祐介・NII)
 <第二部> パネルディスカッション
・「知性と知識のはざまで」司会 瀬名秀明(作家)(後でサマリ予定)
他の参加記事


主催者挨拶 (坂内正夫・NII 所長)

情報に関わる問題はもう既に解決し尽くした?
GoogleやYahoo!に任せれば解決できるのか?
ブレイクスルーを起こす難問として何があるか。
研究戦略室:「ロボットは東大に入れるか」
 Watsonの2番煎じ?
 どうブレイクダウンするか。どのような難問で構成されているのか。
  面白い切り口(ブレイクスルーに繋がる種を含んでいる)という触感。
  プレ実験的には最高で58点程度取れたグループもある。

物議を醸すようならむしろ醸したい。
 コンピュータでできること/人間の知性に近づくこと/得意不得意
  e.g., もし、東大はいれるようになるなら、
  そういう入試問題で選抜して良いのか。人間にしかできない問題?

情報学研究所
 オープンプラットフォームとしての役割
  大学/企業/etc.の垣根を越えて団結して取り組むためのアクション。
  アイデアを出すことも大切だが、目標を定め若い/若々しい人材を引きつける。
  共通の問題をアカデミアが掲げ、企業らも巻き込んでその問題に取り組む。


<第一部> 講演会

基調講演 (松原仁・公立はこだて未来大学) 人工知能のグランドチャレンジ -チェス、サッカー、クイズから東大入試へ-

AI
 人工物に人間のような知能を持たせる(e.g., 鉄腕アトムの実現)
グランドチャレンジ
 それ自体は直接役に立たなくても、象徴的な目標。
 その達成を目指すことで大きな技術的進歩が期待されるもの。
  e.g., アポロ計画

複数のグランドチャレンジが並行して進んでいる中での「東大入試」の位置付け
チェス(マッカーシー「人工知能のショウジョウバエ」)
 AIで最初のグランドチャレンジ
  →シャノン、チューリング、、、探索手法の技術進展に大きく寄与
  1950,60年代:最初は「人間の真似(見込みの高い少数の手だけを読む)」方式
   将棋の羽生さん等専門家は「直感で数手が思い浮かび、それを検討する」
  1970年代:「力任せ」方式(ルール上指せる手は原則全部読む)
  1980年代:スーパーコンピュータ:チェス専用コンピュータ
  1986年:CMU Deep Thought 1秒間に70万手読む→プロレベルに
  1989年:IBMプロジェクト開始
  1990年:世界チャンピオンのカスパロフと2戦2敗(大差)。
  1997年:6戦2勝1敗3分け(1秒間に2億手読む。スパコン+専用コンピュータ約500台)
  現在はPCでもコンピュータの方が強い。もうすぐスマートフォンレベルでも?

他のゲーム
 チェッカー:2007年解明(理論的に引き分け)
 オセロ:1997年世界チャンピオンを破る
 将棋:2010年女流プロを破る。世界チャンピオンまで後一歩(数年)。
 囲碁:世界チャンピオンまであと十数年?
  モンテカルロ法でアマ4段程度

サッカー
 チェスに変わるグランドチャレンジとして1990年前後に模索。
  北野編「グランドチャレンジー人工知能の大いなる挑戦ー」。
  この時点ではまだサッカーは出ていなかった。
 1993年頃:サッカーに絞り込む(ロボットJリーグ)
  国際化を指向して「ロボカップ」
 1995年:世界的に構想発表

何故サッカーか
 団体スポーツであること。
 時々刻々と状況が変化すること。
 必ずしも思った通りには進まないこと。
 わからない情報を補う必要があること。
 (難しいながらも)なんとかロボットにチャレンジできそうなこと。
 世界で一番人気のあるスポーツであること。

ロボカップ/レスキュー/アットホーム

クイズ ジョパディ!
 アメリカで数十年続く人気クイズ番組。
  基本的には知識を問う問題(自然言語)。
 回答は単語(東大入試よりやさしそう)
 強いチャンピオンは英雄扱いされている
 IBMはディープブルーに続くグランドチャレンジとしてジョパディ!制覇を目指した。
 自然言語処理、自動検索、ゲーム理論

ロボットは東大に入れるか
 東大入試で合格点を取ることを目指す。
 「人工頭脳」プロジェクトと称している。
 自然言語処理、物理モデル、推論など。
  知識を問う問題よりも推論を問う問題が多い?
 クイズよりはかなり難しい。
 東大問題は比較的素直なのでコンピュータ向きかもしれない。(京大は癖があるのでその次?)
 いつか本当のロボットが人間と一緒に受験して欲しい。
  妄想:HB鉛筆を折らずに書けるか/落とした時に手を挙げて,,,
 成功すると
  (1)人工知能の進歩が目に見えて分かる
  (2)事務のある程度がコンピュータで代行できる
  (3)入試問題の難しさの基準ができる
  (4)東大入試の幻想が無くなる?


「ロボットは東大に入れるか」プロジェクト概要説明(新井紀子・NII)

目標
 実際のテスト用紙→データ化(アノテーション付き)→ロボットへの入力
目的
 「東大に入ること=究極の知能」*ではない*。
 素材として興味深い。
 口頭試問ではなく、テキスト、画像、音声によって提示される。
 人とのインタラクションは無い。
 試験問題はなるべく誤読が生じないように、コントロールされた日本語で記述されている。
  Web上のテキスト等とは異なる性質。
 試験問題には必ず正解がある。
  数学理科だけでなく倫理社会国語でも正解がある。
   e.g., 心の葛藤を問う問題でも「合意できる正解」がある。
 健全な常識と論理を持つ18歳であれば、
 コントロールされた日本語で書かれれば解けることが期待されている。
  *比較するための材料として使われる要因。

特性/特質
 膨大なデータがあれば(投入できれば)解決できる問題でもない。
 (問題を解く)系があれば十分というタイプの問題でもない。
 現状:人間の平均点にも遠く及ばない。
 何が難しいのか。
  知識/常識/演繹の中でも「常識」が厄介。
  記憶に格納されてる知識や演繹だけでは不十分。
  【身体性が持つある種の感性や感覚、それが醸し出す常識が渾然一体となっている】

科学に提供されている言語:数学の言語(解析、代数、確率統計、論理、確率統計、、)
 この言語で書けるならコンピュータに搭載できる。
 逆に書けないなら、搭載できない。
 常識や身体性から来る感覚をうまく記述する方法を見つける必要がある。
 科目:分割可能性
  国語:論説文読解/小節読解/詩歌/古文/etc.

問題の例
 英語
  ある一家の一日。父と娘に関する語りを説明。それに相応しいイラストを選択する問題。
  何故「イラストによって表象され、それを理解できる」のか。

従来のアプローチ:ターゲットを絞り込む
 分野を細分化して行くことに繋がったが、そろそろ融合する必要が無いか。
 融合に必要なのは「しましょう」というかけ声ではなく、
 適切な問題設定が提供されること。
 「東大入試」には適切なサイズの問題が渾然一体となった形で提供されている。

問題の一部は解けてきている部分もある。
 口述を聞き取る能力等。
 また、適切な論理記述に変換さえできれば多くの問題が解けると言われている。
 ただし、普通の日本語で書かれた文章をどうやって変換するかはまだ分からない。

問い:「優秀さ」はプログラミング可能か?
「東大入試に迫るコンピュータから見えてくるもの」


「人工知能にとってなぜ大学入試はチャレンジングか」(稲邑哲也・NII)

自己紹介:Human Robotインタラクション。
人工知能?ロボット?
GOFAI: Good Old Fashioned AI
 閉じた世界でしか通用しない知能。
 反省点
  シンボルの情報処理だけでは実現不可能。
  曖昧であるシンボルの意味・解釈を解決せねばならない。
 新しい潮流
  身体性に根付いた情報処理を!

現状のロボット研究はどこまで成功しているか?
 部分的なタスクに限定すれば成功。
 GOFAIが目標としていた問題には到達できていない。
  曖昧な実世界情報の解釈はある程度可能に。
  高次レベルの知能の層と、身体(センサ/アクチュエータ)の情報処理層との結ぶ橋が無い。
 抽象度の高低と橋渡し
  GOFAI> ??? > Enbodied Robotics
  細分化していく一方。

二つの流れが合流して初めて解ける問題の例
 国際数学・理科教育動向調査(TIMSS)
  定規にバターで固定した豆を用意。片方から温めるとどの順番で豆が落ちるか。
  小学4年理科:正解率日本92%、世界57%
   温めるとバターが溶ける/温められる場所から/etc.

実体験に基づく論理的思考が必要な問題の例
 自転車で転び、袋に入れた食塩をこぼしてしまった。
 集めてビニール袋に戻したが砂や落ち葉も混ざった。
 食塩だけを取り出す方法を順番に書き、その理由も書きなさい。
  教科書に書かれていることの理解には「実体験との接続」が重要。
  「大学入試」への第一歩(?)

単に高得点を取るだけで良いなら
 暗記科目タイプをチョイス。
 が、得点を取る機能ではなく、実世界を理解する知性への挑戦。
  主に物理・地学に集中する方針。

骨太のテーマ
 画像理解と自然言語処理の統合。
  曖昧性解消のための画像理解と自然言語理解の相補的な統合<。
  図と文章からの物理モデルの再構成。
   相補的に統合して考える力。
    画像から得られる意味のグラフ化。
    自然言語から得られる意味のグラフ化。
    双方のグラフ構造が整合性の取れるように解釈を調整。
   古典:SHRDLU(課題点:曖昧な実世界情報の取り扱い/etc.)
 物理現象のモデル化と予測。
  3次元モデルの構築と物理シミュレーションによる将来予測。
   数秒後/数時間後/数年後を予測

非常に難しい問題(あきらめる?)
 記号化されていない情報を用いて論理的な推論を必要とする問題
  月面クレーターの写真、影の大きさ、、、からの推論

実世界の経験に根付いた問題
 「東大入試」からのスタートは、発達順序とは異なるが、こちらからのスタートも必要。


「知識を問う問題にコンピュータはどれだけ答えられるか」(宮尾祐介・NII)

自然言語処理:検索、自動翻訳、対話システム、、
 人間の言葉を理解するコンピュータを作ることを目指す学問。
 入力(言語)と出力(言語)の間にどのような「計算」が行われているのかを明らかにしたい。
 それが「知能」ではないか。
  全ての科目は基本的に自然言語で出題される。

東大入試
 知識を問う問題=教科書や参考書を見れば答えられる問題。
  解説文を読み「最も適当なものを、次のうちから一つ選べ」
  一般的な常識を持っている人なら教科書/参考書を見れば答えられる。
  とはいえ、コンピュータには答えられない。
  得意なのは「丸暗記」であって「記憶」ではない。
   人間に取って意味のある「記憶」とは?
    言葉そのものではなく、言葉が表す内容(=意味、知識)。

言葉から意味、知識へ
 例
  1)犬に風邪薬を飲ませると貧血状態になる
  2)ビーグルが風邪薬を食べたら病気になる
  言葉として一致しているのは「風邪薬」のみ。
  対応関係から「意味が同じ」と考えられるのは何故か。

知識を問う問題とは?
 記憶していることと問われていることが「意味的に一致しているかどうか」を認識する。
 人間は無意識のうちに認識している。
  コンピュータにとっての「知識を問う問題」
   記憶との一致ではなく、意味が一致しているかを問うところがチャレンジング。

含意関係認識
 2つの文の間に含意関係が成り立つかどうかを判定。
 含意関係:ある文が正しいとした時、もう一方の文が正しいと言える。
  自然言語処理での最近のホットトピック。

NTCIR:国立情報学研究所が主催している国際ワークショップ
 検索/翻訳などの情報アクセス技術の評価のための共有データを提供。
 毎回、複数のタスクを設定。
 NTCIR RITE:新聞から抽出した二文について含意関係が成り立つかを判定。
 大学入試にチャレンジ
  IBM東京基礎研究所/CMU/京都大学/東北大学/北陸先端大学院大学/JUCS

データの作り方
 センター試験から問題抽出→選択肢抽出→Wikipedia検索→同単語を含む文を選択
 現状での精度
  IBM-1で精度72.2%、F値62.6%
  平均精度60~70%
   試験の正答率は、20~60%(精度と正答率には高い相関が見られた)
   鉛筆転がし(25%)よりは大分良い

含意関係でできることはごく一部
まだ解けない問題
 倫理の例
  自我同一性を見失っている心理状態についての語り文。
 東大入試問題
  **について2行で説明しなさい。
   マークシート式か記述式かの違いは本質的ではない。
  **について役割や意義を時期区分しながら説明しなさい。
   関連知識の検索。
   出題意図の認識。
   回答方式の指定の認識。
   →関連する知識を統合して回答を作りだす。

「知識を問う問題」の先へ
 自然言語→意味・知識
 出題意図/含意関係/知識検索
 シミュレーション/数式処理・理解/知識統合/時間・空間の推論/常識/因果関係の認識・推論/etc.
  その先には何があるのか。


<第二部> パネルディスカッション

「知性と知識のはざまで」司会 瀬名秀明(作家), 安西祐一郎(日本学術振興会)、喜連川優(東京大学)、松原仁、新井紀子

(後でサマリ予定)


他の参加記事

「ロボットは東大に入れるか。」シンポジウムに行ってきました。 by ロボコンマガジン
シンポジウム「ロボットは東大に入れるか」参加記録 by Uehara-monologue
「ロボットは東大に入れるか」 by ガジェット通信
「ロボットは東大には入れるか」の最初のシンポジウムに行ってきた。 by IHARA Takehiro
「ロボットは東大に入れるか」 by ニコニコニュース
「ロボットは東大に入れるか?」ロボットが東大合格を目指すプロジェクトが発足(国立情報学研究所) by ガラパイア
「目標は東大合格」国立情報学研が人工知能プロジェクト by 朝日新聞社
ロボットは東大に入れるか – 国際的な人工頭脳研究プロジェクトが開始 by マイナビニュース
NII、「人工頭脳プロジェクト」キックオフシンポジウムレポート ~ロボットは東大に入れるか by 森山和道の「ヒトと機械の境界面」
2021年に東京大学“合格”を目指す:チェス、オセロ、クイズの次は「東大」だ!! ――NII「人工頭脳プロジェクト」始動 by @IT MONOist

FIT2011, day3

金曜日, 9月 9th, 2011


FIT2011の最終日が終わりました。

3日目のプログラムはこちら

午前中は一般セッション「数理モデル化と問題解決(2)」で座長として参加。
午後は一般セッション「分類」に参加してきました。

全日程に参加しての印象は、イベント企画の面白さと、一般セッション間での差の大きさ。座長や参加者の頑張り具合で何とかなるケースもありますが、アブストand/or予稿で多少は落とすことを考えても良いんじゃないかな。それなりの落とす理由を付して返却するコストは増えるけど、残念な発表もあるし。発表練習みたいな場所があっても良いと思うけど、それがFITでサポートする部分なのかはちがうんじゃないかな(個人的な考え)。

ちなみに、FITの創設経緯によると「従来の大会の形式にとらわれずに、新しい発表形式を導入し、タイムリーな情報発信、議論・討論の活性化、他領域研究者との交流等の実現」ということで特定領域に拘らず幅広いセッションがあるのは良いのですが、交流という観点では質疑応答と懇親会ぐらい?

勿論自分から動けば良いだけの話なんですが、「多種多様なデータが必然的にクロスするドメインがこれから解決すべき領域」というような話が講演会で出るぐらいなので、もう少し積極的にクロスする(せざるを得ない)ような仕組みがあっても良いんじゃないかなと思います。一部の学会では「学会開催中の盛り上げ方」自体を研究テーマにして実際に試行運用してるケース(下記例参照)もあることだし、情報処理学会でその方向に動けないのはちょっと残念。実施コスト高いので手を挙げる人がいないとやれないというのは分かりますけどね。

 ・例1: WISS2010改革内容のまとめ
 ・例2: 人工知能学会全国大会、インタラクティブセッション特別企画、メンタリングセッション内企画
 ・例3: 自然言語処理学会年次大会、自然言語処理における企業と大学と学生の関係

ということで、以下、参加してきたセッションのまとめです。
青字は質疑応答時のやりとりですが、ニュアンス自体が大分違ってる可能性が高いです。


目次
・一般セッション: 数理モデル化と問題解決(2)
・一般セッション: 分類


数理モデル化と問題解決(2)

座長として参加してたので実際の質疑応答をまとめる時間は殆ど取れず、大まかな発表のメモと事前に予稿を読んで私が感じた点のメモや疑問点になります。いくつかの発表を除いて活発な質疑があったので殆ど質問できなかったけど、量子ビット表現したGAの方はセッション終了後に話を伺うことができました。

問題意識:モンテカルロ碁に対し枝刈りによる計算量削減

 Q: 他手法との比較は?
 Q: ポテンシャルモデルと他物理モデルとの違いは?
 Q: ポテンシャル値の与え方は同一で問題ない?
 Q: 枝刈りにより棋力が上がるのは何故か?
  →誤った手を打つ可能性を除外できた可能性
 Q: 9x9の小さな盤面での評価を行っているが、
  これは19x19でも同様の傾向を示すのか?
  →今後の課題

<事前疑問点>
Q. モンテカルロ碁の計算量削減について他の枝狩り方法等があるようだが、
 それらとの比較考察はしたのか。

Q. モンテカルロ碁の特性そのものを解析したり、近似することが目的?
 (近似が目的なら、どのぐらい計算量落とせた上でどのぐらい近似したか
 を示す際に勝率(棋力)だけでは不十分に思うが、他に特性がうまく近似
 出来ているかを検証する方法は無いだろうか) それとも近似した上でより
 強いモデルの構築等に繋げることが目的?(今後の方向性は?)

Q. 特性の近似具合を図る指標として一致率や含有率を採用しているが、
 これらの指標では「実際には採用しない」部分が多く含まれるが問題無いのか。
 言い換えると、ノーマルのモンテカルロ碁により得られる勝率分布全体を
 近似することが目的なのか、勝率分布を利用して手を選択する部分を
 近似したいのか、どちらなのか。
 例えば、勝率分布としての近似を見る場合、両者とも「合法手」を基準にした
 指標になっているが、その逆は考慮する必要が無いのか。すなわち、
 モンテカルロ碁により合法ではないと判断した所の一致率は見る必要が無いか。

Q. モンテカルロ碁との一致率や含有率の観点からは、その性質上基本的には
 ランダムが最も良く近似できそうに思える。棋力も考慮すると序盤をランダム、
 中盤は後半から別フィルタとの組み合わせが直感的には良さそうだが
 検証してみたか。

Q. 各フィルタの特性や棋力は、ポテンシャルの与え方の性質上、
 碁盤のサイズによっても変化がありそうだが問題にならないか。

  • 配属人数下限付き研究室配属問題
  • 問題意識:多対一マッチングにおいて下限導入
     下限導入でも動くようにアルゴリズム拡張
     例:研修医配属問題、タスク割り当て、震災地ボランティア
    選好を考慮する→Multi-Stage導入
    
    
    Q: 下限制約が求められる問題例にといて、完全で厳密な選好を持つという
     前提は問題にならないか?半順序に拡張することは可能か?
    Q: 戦略的操作不可能(偽の選好を表明しても特にならない)+全順序選好リスト
     必須という前提は本当に望まれているのか?
     →選好仮定の緩和、不完全や同順を許した選好
    
    <事前疑問点>
    Q. 定義1の条件2の意図が良く分からない。
     学生iは「|M(lj)|<qj」の時点で学生i'とは無関係にljに配属すべきにも思うが、
     どういう状況を表しているのか。
    
    Q. 学生や研究室の選好リストが全順序であるというのは困難な前提に思えるが、
     問題にならないのか。
    
    Q. 選好リストに駆け引きが含まれている場合、その影響を加味したより簡易な
     解法は考えられないのか。例えば、戦略的操作不能では「自身の真の選好
     リストを申告した際の効用最大化」を意味するようだが、偽の選好リストを
     申告することで効用最大化を図ることは考えられないか。(実際問題として
     そのようなことが行われていないのか)
    
    Q. 似たような質問になるが、ブロッキングペアに含まれた学生は、
     本当にブロッキングペアだったのか。また、ブロッキングペアではないと
     判断された学生は本当にそうだったのか、についての調査結果はあるのか。
    
    Q. 実際の「正当と認められる不満」は、定義1や2で必要十分に記述出来ているのか。
    
    Q. 3タイプのブロッキングペア数を指標として用いた安定マッチングを
     導いていると思われるが、導いたマッチングに関して何らかの批判は
     出ていないのか。
    
    Q. 本質的な話とはズレてしまうかもしれないが、ブロッキングペア数だけを
     最小化することが目的で良いのか。例えば、ブロッキングペア数自体は
     最小だが、ある学生は極端に選好順の低い研究室に配属されているといった、
     学生毎もしくは研究室毎の選好満足度のバラツキが極端に低いマッチングが
     与えられていたとしても問題ないのか。
    
    
    
  • ノード配置問題に対するアント最適化法
  • 問題意識:BMSNの最適ノード配置による伝送効率化
    
    
    Q: 高負荷トラフィックが生じるノードは時々刻々と変化しそうだが、
     その都度最適配置を求める必要があるのか。
    
    Q: アントサーチでアントのいる行と列全ノードを再配置対象にしているが、
     このように設定した理由は何故か。
    
    Q: イータによる問題領域固有情報の効果が高そうに思うが、
     ACO以外の他の手法でも同様の設計を導入することで改善できたりしないか。
    
    Q: IKLSより平均的にすぐれているとのことだが、最悪時等での差はどうだったか。
    
    <事前疑問点>
    Q. アントサーチの際に、未割り当てノード集合N^kが、同じ行と列方向
     全てのノードとなっているが、この設定はどのようにして決められるのか。
     ノード距離でいうなら同距離に位置する斜め方向も必要だと思うが、
     特に考慮する必要はないのか。ネットワークのサイズに依存してどこまで
     考慮するのか(全ての行や全ての列で問題無いのか)も調整が必要に思う。
    
    Q. アントサーチと切り離して考えるのは困難かもしれないが、問題領域固有情報の
     与え方自体の効果が高いように思える。同様の与え方を他の解法に組み込むこと
     はできないのか。言い換えると、ACOが解法としてすぐれているのではなく、
     制約の与え方がすぐれている可能性はないか。
    
    Q. 高負荷トラヒック間のホップ数が1であることが最良のノード配置とのことだが、
     トラフィックには入力と出力があり、それらの対のホップ数が1であることが
     最良ではないのか。また低負荷トラフィックは無視して問題無いのか。
    
    Q. 実用上の制約は全て含まれているのか。計算リソース上の制約や、時間の制約等。
    
    
  • 移動体の通過順序付けにおける最適化手法の比較評価
  • 問題意識:船のような複数移動体が同一領域共有通過
    
    
    Q: 入域点、出域点を増やしても適応可能か。
     →今後の課題
    Q: 入域点のある問題設定が良く分からないが、何のためにあるのか? 具体的な例は?
    Q: 買い物のレジと違う点は?
     →移動体間隔制限が違うと思うが、未調査
    Q: 全体遅延を最小化することで個別のユーザに必要以上の遅延を強いることに
     なると思うが、そこについて何かしら下限なりを設けることはできるか。
     →調整可能
    Q: 「公平性の損失」で順序しか考慮されていない(時間が加味されていない)が
     問題無いか。
    Q: 移動体の種類が3種以上に増えても問題無いか。
    
    <事前疑問点>
    Q. タブーサーチのようだが、タブーはどこでどのように設定している?
    
    Q. そもそも求めたいものは何? 問題設定が良く分からない。
     移動体は三種類以上に増えても適応可能?ユーザはどれでも自由に乗れる?
     移動体のコストは?
    
    Q. そもそもGAのような大域的手法が向いていない問題設定に見えるが、
     セービング法等の局所探索手法との比較は?
    
    Q. 今回の手法は移動体が3種以上であっても適応可能か。
    
    
    
  • 整数ナップザック問題を対象としたQuantum-Inspired Evolutionary Algorithmの基礎検討
  • 量子力学的原理+GA
     量子ビット表現、量子重ね合わせ状態を模倣
     問題意識:整数型の遺伝子表現を可能とする表現法
     移住処理→対交換処理に置き換えることでパラメータ数減少
    
    Q: 観測結果は毎回異なる?
     →世代毎に一度ずつ観測
    
    Q: GAと比較してどのていど計算量が増えるのか。
     →ほぼ同等
    
    Q: 収束状況や適応度変遷具合から決定したようだが、
     回転角度は変動させることはできないか?
     →SAのようなやり方も可能だと思うが、
      島GA的な操作が内部に含まれるため殆ど必要ないと考えている。
    
    Q: 実験2の結果で、適応度は最適に近いところまで獲得できた? 局所解に収束?
    
    事前疑問点
    Q. QEAにおける「量子ビット表現」とは? ユニタリ変換とは?
     一般的なGAとの違いはコーディングのみ?
    
    Q. QEAも知らないのでご教示頂けると嬉しいのですが、QEAやQEAPSは
     一般的なGAと比べて計算リソースも少なく、計算時間も短くて済み、
     得られる解の質も高いという傾向があるのだろうか。
    
    Q. GAは、島GA等の並列処理しやすいアルゴリズムだと思うが、
     QEAやQEAPSも同じような並列化は可能か。(観測とかユニタリ変換とか
     分からないので、並列化に不向きな点があれば教えて欲しい)
    
    Q. QEAPSでの探索性能の差が僅差であることについて、
     一般的なGAでいうところの局所解に陥りやすい枠組みになっているという
     ことは考えられないか。図3で示されているのが十分最適解に近い適応度に
     達しているなら、より大規模/複雑な問題でも検証してみるべきではないか。
    
    Q. 一般的なGAと比較して、QEAPSでもまだパラメータ数が多いように感じるが、
     これらのパラメータの中で省略もしくは自動調整するようなことが
     考えられそうなパラメータはあるのか。
    
    
  • ネットワークの隔たり数とエントロピー
  • ミルグラムの実験、6次の隔たり
     閉路が存在する場合の重複を考慮したい
     スモールネットワーク/スケールフリーネットワーク
      閉路の数で情報伝達のしやすさが真逆
    
    中間的ネットワークモデル2種類考察、
    次数分布エントロピーの情報伝達に及ぼす影響⇄閉路の影響
p次一般化クラスタリング係数C(p): ネットワーク内の多角形構造量を表す一指標
    ミルグラム条件Mn: n次の隔たりが成立する条件
     スモールワールドネットワーク:C(p)が大きくなると情報が伝わり難くなる
      閉路が情報伝達を阻害
     スケールフリーネットワーク: Xn,C(p)が増加するとMnが大きくなり、n次の隔たりが満たしやすい=情報が伝わりやすい
      閉路の数の増加が情報伝達を促進
    中間的ネットワーク
     スケールフリー(sk)→スモールワールド(sm)
      (sm)張り替え率Pの増加と共に、局所クラスタリング係数Cと最短平均パス長(≒Mn)が増加=伝達し難い
      Pの増加=ランダムネットワークに近づける?
     スモールワールド(sm)→スケールフリー(sk)
      (sm)
     →閉路数ではなく次数分布エントロピーが情報伝達に影響
    
    
    Q: ミルグラムの実験で閉路の影響で遠回りするという話があったように思うが、
     閉路はカウントしていないのでは?
    
    Q: 中間的ネットワークの作成方法が影響していないか。
     →傾向確認済みで問題無い
    
    Q: ミルグラム条件Mnと最短平均パス長Lに良い相関が見られるということを
     利用しているが、ネットワークの作成方法は影響しないのか。(中間的ネット
     ワークにもいろいろ考えられ、今回想定した中間的ネットワークではこういう
     傾向だったというだけ?)
    
    <事前疑問点>
    Q. XnやC(p) は閉路と等価な、もしくは近似された指標? XnやC(p)は多角形構造
     を用いた指標になっているが、多角形構造を閉路と言い換えているのは
     何か理由があるのか。
    Q. ミルグラム条件Mnと最短平均パス長Lに良い相関が得られていることが
     示されているようだが、先行研究でも中間的ネットワークのような操作を
     行ったネットワークに対しての調査も行われているのか。(言い換えると、
     ネットワーク生成法が与える影響は十分無視できるのか)
    
    Q. スモールワールドにおいて、張り替え率Pを上げることがランダムネットワーク
     に近づけることと解釈しているようだが、その解釈は正しいのか?
     (例えば張り替え操作は、ハブと連結しているノード間に枝を張り、
      代わりにハブから出ている枝を削除するという2つの操作がセットに
      なっているが、この1セットが処理されることにより何らかの偏りが
      生じる事はないのか)
    
    
  • 経済性を考慮した電力自給のための生活スケジュールの提示
  • 仮想スマートグリッド環境、マーケットプライス
    問題意識1:電力コスト高い時に買ってしまう恐れがある
     高コスト→電力使用を避ける
      生活スケジュールの推薦
    問題意識2:スケジュール推薦の上での目的
     電力会社からできるだけ買わないように
     安いマーケットプライスを望む
      スケジュール最適化(次の日の生活スケジュール)
      生活行動毎に時間、期間、分割、並行、代替条件を設定
    
    
    Q: 需要と供給の関係からマーケットプライスの変動が設定されているようだが、
     2つの組み合わせしかなかった。それ以外の状態ではどうなる?
    
    Q: 目的1と2を合算して考慮しない理由は?
    
    <事前疑問点>
    Q: 推薦されたスケジュールに合わせた生活は可能か?
     例えばTV。録画はどうする?
    
    


    一般セッション:(言語処理の)分類

    座長さんも聴講者も予稿までちゃんと目を通した上での質問が多く、質疑時間5分の割には濃厚な時間になってました。凄い。

    問題意識:学習カルテ提供による自己分析/引き継ぎ資料作成コスト削減
    
    
    Q: TFIDF正規化/非正規化でノイズワードは正規化した方が多くなったが、
     最終的なF値ではどちらが良い?
    A: F値では差が見られなかった。
    Q: 普通に考えると正規化した方が良さそうに思うが、何故差がでなかったのか。
     例えば「こういう例があった」というものが無いか。
     何故ノイズワードが増えるのか。
    A: 設問において文字数が多くないので正規化/非正規化で何か差が出ると
     思ったが、あまり見られなかった。
    Q: その辺りも考察してみると良さそう。
    
    Q: そもそも非正規化よりも正規化がうまく表しているという根拠が
     ノイズワードだけにみえるが、何故それを根拠にしたのか。
    A: 以前の実験で、TFベクトルとTFIDFベクトルで行った際にはノイズワード数の
     大小で比較できた。
    Q: ノイズワード以外に現れている語に重なりもあるが、違う語も出てきている。
     どちらの語がより設問の特徴を表しているかについては検討したか。
    A: 今回は考えていなかったが、今後考えていく予定。教科書にある太字単語等を
     重要度にして指標として使うことを考えている。
    
    Q: 試験全体において設問を特徴付けるような語はそもそもあるのか。
     データを眺めていて気づいたものがあれば。
    A: 教科書の太字単語は良く出てくる。
    Q: それなら太字を使えば良いのでは。
    
    
    
  • ニュース記事の国別クラスタの作成と多国間対応の実験評価
  • 問題意識:報道姿勢や内容には各国の思想や文化等による違いが表れる
     ユーザが各国の価値観の違いを比較できるシステム
      各国がどのような話題に注目しているか
      ある話題に対する各国の注目度の差の比較
     Q: 話題の定義は?
     Q: タイトルや本文をどうベクトル化する?
     Q: 国別クラスタリングはどうやる?
     Q: 国別クラスタ間のマッピングは1対1対応とは限らないのでは?
    
    
    Q: クラスタリングして対応付けるということだが、
     クラスタ数はどれぐらいになった?
    A: 1記事でクラスタになることが殆ど。日本記事数1655で
     クラスタ数600~700程度。
    Q: どれか1国を決めて基準になるクラスタを決めて対応付ける方が良いのでは?
    A: 国別のクラスタリング結果F値が大きく異なるため、
     基準を設けるのは難しそうな印象。
    
    Q: 各国の注目度の差を見たいということに対して、今回のタスクは同じ記事か
     どうかを推測するタスクになってるように見えるが、今回のタスクはどういう
     位置付けなのか。類似度の高く無い意味とか。
    A: 報道の方向性が似通ってるなら全体的に類似度が高くなるが、
     違ってる場合には重要後のみが共通しているという状況が出てくると思う。
     そういうところからアプローチしたい。
    
    
    
  • Wikipedia記事に対する類似記事群の出典傾向の提示方式
  • 問題意識:記事への出典付与コスト緩和
     Q: 信頼性を高める際に出典付与の有無だけで判断して良いのか。
     記事毎に出典傾向が異なる
     出典のつけられていない記事に対して出典を探すべき媒体を提示
      一つの記事が複数カテゴリに所属
      カテゴリ毎の社会的認知度に差がある
      →より狭い範囲でのカテゴリ毎に平均した傾向を取る
     Q: 記事単位ではなく、文章単位とかより細かい単位での出典傾向、もしくは出典が求められるといったことを提示できないか。
    
    
    Q: 存命/非存命で分けるという観点は面白いが、急に無くなられたからといって
     傾向が急に変わるという訳ではないと思う。
    A: そういった例もあるが、将来的には生まれた年によるグルーピングも考えている。
    Q: そういうパターンがカテゴリ毎にも変わるんじゃないか。
    A: 検討したい。
    
    Q: 根本的な所は出典傾向が似ていれば一つのグループにまとめられるのでは
     ないかということ?
    A: 出典傾向がまとまっているグループを見つけるためにグルーピングしたり
     出典付与具合で確認している。
    Q: Wikipediaで出典を出す場合に参考にするということのようだが、
     出典傾向からグループを作成することもできるのでは。
    A: 検討したい。
    
    Q: 出典傾向については納得したが、編集者にとって出典を探すための支援に
     これがどのぐらいになるのかが見え難い。出典支援を考えたら出典は記事の
     まとまりや一文毎につけたりすることもある。どのぐらい有効になるのか。
    A: 何も情報がないよりは傾向を出しておけばマシだと思う。Wikipediaは
     仮出典つけるとしても編集者によって消されることもある。
    Q: 調査結果は面白いので、もう少し別の方向に活かすことも検討してみてはどうか。
    
    
  • 同一事象に対する異新聞社記事間の相違点検出のための文間対応とその評価
  • 問題意識:事象の扱われ方の違いを検出
    問題意識:新聞社毎の見解や意見の違いを検出
     クラスタリング→文間の対応付け
     形態素一致率
      Q: 単位は「文」で問題ない?
    
    
    Q: 文間対応はクラスタリング結果が影響していないというようなことを
     述べられていたが、文間対応の結果も良いかイマイチか言いづらい結果に見える。
    A: 再現率に関しては影響が無い。
     取るべく対応のものは同一クラスタに存在することを確認済み。
    
    Q: 文間マッチングする際の文の選択はどうやる?
    A: 1〜3文単位での総当たり。
    Q: 「ある出来事」というのは時間的推移がある。DPマッチング的な遷移を
     含めた応用は考えられないか。
    A: 記事の日時は取っているが、まだやっていない。
    Q: もう少し緩く対応を取るとかしたくなる時に使えないかと感じた。
    
    Q: 最初の質問について、今回の実験では問題無かっただけで、
     今後のデータ次第では問題になることも考えられる?
    A: 可能性はある。
    Q: クラスタリングを使わない手は考えられない?
    A: 総当たりのため、計算量削減のためには必要。時間的推移的な類似度の
     利用等で代替も可能かもしれない。
    
    Q: ある新聞社はある評価をしつつ、別は評価をしていないこともありえる。
     そこはどうやって扱っていこうと考えているのか。
    A: クラスタリングで考えている。
    
    
    
  • Web検索結果のラベリングにおける閾値の利用について
  • 検索結果をクラスタリング提示
    クラスタへのラベリング:重要な単語TFIDF
     問題意識:TFIDFだけでラベル決定できない
      一致率の採用
       Q: TFIDFとの比較結果は?
    
    
    Q: 既存ロボット型問題点としてユーザがキーワード思いつかないケースを
     上げられたが、システムにおいて検索結果を取得するのは誰が行う?
    A: ユーザが行う。
    Q: キーワード思いつかないケースに対してそれは適切なのか?
    A: 思いつくのが難しい場合、より曖昧なキーワードを入力すると思う。
     曖昧なキーワードを入力した上で検索結果から得られる下位概念を提示する
     ことで対応している。
    
    Q: 正解ラベルを生成するのは実験者がやっているようだが、その判断基準は?
     迷ったりすることはなかったか。
    A: 迷うことはあった。ラベル一つしかつけてないがラベルにも複数の意味がある。
     同じ内容を表していても違う単語のケースとかも。
     厳密にしていく必要性は感じている。
    Q: そこが基盤になっているので複数人に評価してもらっているのは良いと思うが、
     人によってWebページの捉え方が異なると思う。処理は難しくなるかも
     しれない。大量の正解ラベルを付与しておいてそこから絞り込むような流れの
     方が良いように思う。今回のように1ラベルで解決しようと下理由は。
    A: 実験前の段階ではそのような差異がないと考えていた。
     しかし実験するにあたり複数ラベルの必要性を感じた。付けてる傾向はある。
    
    Q: ラベルを名詞や複合名詞一語で表すことはそもそも可能なのか。
     WISDOMだと極性とかも考慮されている。ラベル1語というアプローチは、
     本来目的とされている「利用者が探しやすい」という要求を満たすようなものなのか。
    A: そのような評価はまだやれていないが、確かにラベル1語ではなく複数語を
     検討する必要性は感じている。
    Q: 次元数削減はクラスタリングで削減?
    A: クラスタリング前に削減した上で、クラスタリング。
    Q: ラベルの次元数を削減するということとラベルを選ぶことの次元数を削減する
     というのは同値? 「次元数が多いトラベル候補が増加」というのはどういう
     意味? クラスタリングの次元数を減らすかどうかは別問題?同じ問題?
    A: 両方を対象としている。クラスタリングする際にも素性が多すぎると問題が
     起きるので、良好な素性のみを使ったクラスタリングを行いたい。
    
    

    FIT2011, day2

    木曜日, 9月 8th, 2011

    FIT2011の中日が終わりました。これで2/3のスケジュールが終了したことになります。

    2日目のプログラムはこちら

    午前中はイベント企画サイバーフィジカル情報革命 ~情報爆発から価値創造へ:米国NSFの最新動向~
    蛇足ですが、イベント会場1,2共に人数は結構入るのですが、スクリーン自体のサイズがやや小さかったり、プロジェクタ投影サイズと合ってなかったり、位置が見づらかったりしたのがやや残念。

    午後は一般講演「言語資源」に参加してきました。

    青字は質疑応答時のやりとりですが、ニュアンス自体が大分違ってる可能性が高いです。


    目次
    イベント企画: サイバーフィジカル情報革命 ~情報爆発から価値創造へ:米国NSFの最新動向~
     ・Big Dataとサイバーフィジカル
     ・統合情報基盤としてのサイバー・フィジカル・システムにおけるオープン・スマート・フェデレーション
     ・ポストペタスケール時代の情報分析技術
    一般講演: 言語資源



    イベント企画: サイバーフィジカル情報革命 ~情報爆発から価値創造へ:米国NSFの最新動向~

    Big Dataとサイバーフィジカル

    本題に入る前に
     震災にどれほど役立つことができたのか
      何ができるのか、対応のトレーニングが重要かもしれない
      ヤシマ作戦:Blog, Twitterの比較
       情報伝搬(避難口情報広がり方)の可視化
        ヤシマ作戦に見る草の根的な Diffusion Pattern (拡散パタン)
        インフルエンサーによる拡散パタン: e.g., 有名歌手による募金
       人の呟きがセンサ
        Twitter Sentiment, psyng.com
       スパイク(瞬間的な発火)を見るのではなく Diffusion Pattern を見る時代へ
       多様なITメディアのリアルタイム解析
    
    NSFの最新の動き
     CPS PI meeting in Washington
     The Growing Imperative and Transformative Impact of Cyber-Physical
     Digital Future
      explosive growth of scientific and social data
       melding of the cyber world with the physical world
    
人のつぶやきは大したことは無い。モノ(センサ)がしゃべる時代へ
     The Age of Observation
     CPSプログラム自体は数年前から始まっててるもので、新しいモノではない
      フィジカルワールドにくっついてきていることを真摯に受け止めようという流れ
     表現は違うがだいたい同じ方向感
      CPS, 情報爆発、情報大航海、Smarter Planet, IOT, M2M, Big Data, etc.
     CPS Research Gaps
    
    基本アーキテクチャ
     Cyber World  Physical World
      センサを通したフィードバックのある世界
    
    事例
     船の運航(省エネ運行)
     ウェザールーティングによる最適計画
     物流 by NEC
      SeeT-navi
     人の健康
      情報薬:適切なタイミングで提供される情報
      保健指導の大幅な効率化
       問題点:個々の多様性が大きい
        transfer learning
     個々のサイバーデータ活用事例はそこそこある
    
    Big Data
    Personal Data: The Emergence of a New Asset Class
    
    
    Q: CPSの応用例に米国・海外のものが上げられたが、
     日本が独自にやらなくてはならないものがあるか。
    A: アプリケーションドメインの幅は広がる一方で、今回書介したのはほんの一例。
     例えば空港の価値が諸外国に負けているということを情報集約の観点から解析したり。
     いろんな所に挑戦していくべき。
     ポイントは、複数のステークスホルダーが跨がっている所が面白い。
    
    


    統合情報基盤としてのサイバー・フィジカル・システムにおけるオープン・スマート・フェデレーション

    Improvisational Federation
     即応的な対応が重要。適応に至る一歩手前。
      大規模かつ多様なデータ、開放されたもの。シナリオは計画されていない。
     Lower/Middle/Application layer
      Cyber/Physical cloud
      Open library: cyber-physical knowledge-processing
    
    Open smart federation architecture
     Generic Wrapping of Resources
     Integrated Data and Knowledge Presentation
     Virtual Reification Framework
      視覚化フレームワークではなく、
      相互作用的に機能するオブジェクトとしてのフレームワーク(?)
    
    Meme Media & Meme Pool
    The Memetic Web
    PadSpace for Knowledge Federation
    Cyber data mining (ill-formed)
     interactive visualization
     improvisational combination of tools and application to CPS data
    
    Reexamination of Disaster Response System in U.S.
     Before: NIMS
     After
      Balancing between Agility and Discipline
      Technology-Mediated Support for Public Participation & Assistance
    
    
    Q: 大震災例だとその場に専門家がいる訳ではないことがある。(殆ど聞き取れず)
    A: いろんなスキルレベルの人が関与する中で、
     各々のスキルに応じて適切なツールを提供する事は大切だと思う。
    
    


    ポストペタスケール時代の情報分析技術

    データ構造といったことだけではなくハードも含めた新たなパラダイムの必要性
    「データはめしのたね」
     処理や通信といったスペック向上だけではNG
      PCはどんどんほぼゼロコストに
      電力、スペースは高いまま
     付加価値
      情報爆発→どんどん探し難く→データの目的に踏み込む必要性
     東北大震災の1年前から話が出ていた: e.g., オーストラリアの山火事
     世界的に必要性が高まってきている
    
    スマート・プラネット
     単にデータを蓄えるだけではなく具体的に何をしたいのか。
     クロスドメイン、多種多様なデータ、性質も異なる。
      種類や時間軸の異なるデータの合成や複合的な分析により情報価値を高める。
     蓄積→分析→推薦→アクションにまで繋げる
    
    事例
     港湾・河川のリアルタイム監視
     世界の個人のDNA解析による人類の起源の調査
     電力需要と気象の監視・予測→発電量の最適化
     センサを増やすだけでは足りず、分析技術が必須
      より多くの事象をモニターし、より迅速な意思決定の必要性
       Q: 意思決定にもバリエーションが多々あるが、汎用的に提供可能か?
      Big Data + Learning Systems
    
    Big Data: Deep Analytics and Reactive Analytics
     蓄積しているデータ+流動するデータ
      少ないデータで即時に反応する必要のあるケース
      大量のデータに時間をかけて反応する必要のあるケース
      迅速な処理系とディープ解析を統合
       リアルタイムにフィードバック得ながら洞察可能に
     データが沢山あっても全部見れる訳じゃない。
     見えない部分(間)を補完/推測する必要がある。
    
    Learning Systems
     従来:システム毎の出力は同一
     学習システム:持ってる知見から出力(異なる可能性、むしろ異なって然るべきかもしれない)
     進化する学習システムと人間の関与
      仮説/学習/検証エンジンの導入
    
    
    Q: 仮説/学習/検証といったこれまで人間がやってきた部分をやりたい
     ということだが、どこまでできているのか。
    A: 非構造化データにアクセスするという点と、仮説を持ち、検証する所は
     ある程度可能になった。ポリシーエンジンについても。
     完成はしていないが、Watsonとして意思決定を下せるレベルにはなった。
     一方、対話しながら混乱するケース(人ごとに異なることを主張されるとか)、
     DB内の矛盾等についての学習等、いくつか解決すべき問題も見えてきた。
    
    


    一般講演: 言語資源

    • 名詞と動詞の共起に着目した状況認識
    問題意識:会話の状況や文脈といった内容の推定
     単語の共起データの活用
      EDR電子化辞書:膨大、動詞を基準とした特殊な記述なので扱いづらい
       親密度を用いることであまり一般的でない単語の削除
        Q: 親密度はドメイン毎に異ならないか?
      インターネット上のコーパス
       検索エンジン:動詞→名刺/助詞パターン
     寄席文(三題噺)生成
      Q: 何を評価している/評価することになるのか?
    
    
    Q: 共起を利用して文を生成したものを評価するということは、
     何を評価していることになるのか。
    A: 連想的な意味での内容をうまく表現出来ているという評価になると考えている。
    Q: 共起を用いている時点でそれなりの自然らしさは実現出来ていると思うが、
     問題になるのは素朴に共起を用いることででてくる例外をどう取り除くかだと
     思う。何かしら検討しているのか。
    A: 今の所まだ未検討。
    
    Q: EDR格フレームを選択した理由は?
    A: 研究室で扱いやすい環境だったのが大きな理由。
    Q: フレームネットもあるので、それとの比較やサーベイ等はあるか。
    A: 他データとの比較は行っていないので検討したい。
    
    Q: コメントになるが、
     動詞だけにすると「頭に来る」とか意味が変わってくるので、
     動詞だけというのはやめた方が良い。
    A: ありがとうございます。
    
    
    
  • オントロジーを用いた民具研究者支援システム
  • 対象:民具(現役引退した地域の語り部になる道具、古い道具)
     民具カード:制作者毎に書式が異なる
     経緯:使用目的で検索し難い点を改善
      意味オントロジーの導入
       検索単語を含まなくても検索単語に近い内容を含む検索
       「穴をあける」といった共通項を利用した検索
     目的
      民具分類方法(文化庁分類)の抱える問題:1民具1分類
       Q: 図書の分類でも1図書1分類だと思うが、分類自体を詳細に検討
        することで解決できないのか。何が問題なのか。
      →機能分類に沿った振り分け
    
    
    Q: オントロジーを作られたということだが、どう作ったのか。
     参考にしたオントロジー体系はあるか。
    A: 先輩が作成したカクテルオントロジーを参考に。
    Q: それはアルコールというモノの種類のようだが、動作的なモノは?
    A: 動作に関しては無い。データを見ながら構築した。
    Q: 折角作ったオントロジーなので、既にあるものとの親和性について
     検証してはどうか。
    
    Q: is-a, instance-ofが出てきたが、どう使い分けているのか。
     例を見る限りではis-aにしか見えない。
    A: 「害虫is-a昆虫」ではどちらでも可能だが、
    Q: どちらでも良いのなら分ける必要性が無いのでは。
    A: 大雑把すぎるので分けた方が良いと考えている。
    Q: instance-ofはより具体的な、this とかつくようなケースだと思う。
    
    
    
  • 多対多の関係性を持つ多言語用例対訳のデータ構造の提案と評価
  • 問題意識:一意に変換できない用例(多対多)の存在
     メタノードを用いて一意に変換可能にする手法を提案
     用例対訳:一意に変換可能
      医療分野の用例対訳収集システム:TackPad
      用例間の意味の確認
       用例間リンク
    メタノードの自動生成
     部分的に完全グラフとなっているものをメタノードに結合
      メタノードの選択に問題が残る
       メタノードへの意味の付与
        フォーマル/インフォーマルを人手付与
         Q: 選択できるのは人間だけ?
         Q: 他にどういう種類がある?→病名、症状
    
    
    Q: 医療現場で試してみる?
    A: NPOと協力して病院関係通訳者らと話合って出てきたので取り組んでいる。
    Q: 実際に使ってもらった?
    A: まだ使用する段階になっていない。複雑になっているのでなんとかしたいと考えて今回の手法になっている。
    Q: 用例はかなり作成コストの負荷が高いように思うが。
    A: 今回とは別の例になるが、工夫も試している。
     花粉症に関する言葉を集めてみるとか。分野を限定するとか。
    
    Q: 完全リンクを求めてメタノードを付与するようだが、その時に完全グラフを
     構成しているノードの数の多さと重要度との関連性はありそうか。
     例えばメタノード数の大小で用途が変わるとか。
    A: 結合ノード数自体が重要になる場面は少ないかも。ただし、提供する場合に、
     2〜4では足切りした方が良いケースが多いという傾向はありそう。
    
    Q: メタノードを使うことによる本質的な利点は何?
    A: 4言語を扱ってる状況を想定して欲しい。例えばタッチパネルで組み合わせて
     使うことが多いが、言語を切り替えながら使うとなる状況でどれに変換すべきか
     が悩ましいことが起きる。
    
    
    
  • コーパスを利用した自然言語研究・学習・教育支援システムの開発に向けたRDBMSの評価
  • 英語コーパスを用いた教育者の活動を支援するシステム開発
     問題意識:コーパスを統合し、一括して解析できるシステム
      データ蓄積部分+解析部分
      統計解析・検索ツール/学習支援ツール/教育支援ツール
      ARE(Allocation of Remarked Elements)による構造表現、属性情報付与
    
    
    Q: 背景で、様々な用途を統合するという話があったと思うが、RDBではスキーマを決めてしまう必要性があると思うが、決め方や拡張性に問題は無いか?
    A: 属性付与については問題無い。
    Q: 属性情報を追加したいとなっても対応できる?
    A: テーブル増やすことで対応可能。
    
    Q: RDBを使う目的や意図は?
    A: 文の構造を管理するだけでなく、構造に対する属性情報を管理できること。
    Q: XMLのままで何故いけないのか?
    A: 解析対象が複数ある時に、様々なフォーマットがある。
    Q: 一つのコーパスに対して複数スキーマで同時に対応する?
     XML化してしまうとタグ振ることで解決できるが、
     他フォーマットでも同様のことをしたい?
    A: はい。
    
    
    
  • 自動生成された常識的知識を表現する文の自然性判定
  • 常識を利用した研究が日本語ではあまり盛んではない
     問題意識:常識データベースが公開されていない
      日本語WordNet、ConceptNet→常識的知識を表現する文の生成
       Q: 「常識的知識」を文で表現しようと考えた理由は?
       Q: 用例とは何が違う?
     同意名詞の獲得
      大量文生成
      判定(スニペット共起回数/完全一致割合/活用検索割合)
       Q: 検索エンジンの結果に依存して問題は無いか?
    
    
    Q: 常識をどのように考えているか。例えば「外に出てみたら道路に出ていた
     →雨が降っていた」というような推論? 単なる共起性の判定?
    A: 常識的知識として、常識・文化的知識・専門的知識を含む知識で、
     推論を含まない単純な知識。
    Q: 文法的にも意味的にも満たしているのは全て含む?
    A: その通り。
    Q: 共起性判定との違いは?
    A: 共起するものを閾値として利用しているが、最終的に実際にWeb中にあるもので、単純に共起しているものではないものも扱っていきたい。
    
    Q: 常識的知識を文章として表現しているが、用例とは違うのか。
     用例コーパスは大量にありそうだが。
    A: もっと大量に作りたい。まずはConceptNetのコーパス拡張。
     最終的にはパターンのような形で常識を生成できると思う。
    
    Q: 普通常識だとスニペットに出て来ない気もするが。
    A: 全く出て来ないものというのはあまり無いと考えている。件数だけだと
     除外されてしまうケースでも、割合を考慮することで救済できると思う。
    Q: 否定についてはどう扱う?
    A: 今回は処理していないが、否定文を否定として扱うこと等も考えている。
    Q: 「夏は寒くない」という文章なら沢山ありそうなので、そこから常識を
     抽出しようとした方が沢山取れそうな印象。
    
    Q: チャレンジングな課題に思うので頑張ってください。
    
    
    
  • 日中機械翻訳のためのスーパー関数抽出における対訳辞書自動構築
  • スーパー関数
     変数と定数からなる。任意一部分を変数とし、残りを定数と定義。
     変数を入れ替えることで別事象を表現。
      対訳コーパスさえあれば、スーパー関数抽出が可能→翻訳可能
    問題意識:名詞だけを変数と定義してるため、資源浪費。
     ほぼ同じ文でも異なるスーパー関数が必要になる。
      助詞と助動詞のみを定数、それ以外を変数と定義→関数整理。
      ただし、訳語の選択問題が残る
       対訳辞書の自動構築で解決したい
        主語と動詞の共起を考慮
     中国語形態素解析精度の問題
    
    
    Q: 正解率86%となっているが、この結果はどう考えられるか。
    A: 3つ以上の要素が含まれるスーパー関数が使われる文を生成したが、
     多重訳を持つ文を判定するつもりだった。その場合には誤ったケースが見られた。
    
    
    

    FIT2011, day1

    水曜日, 9月 7th, 2011


    FIT2011の初日が始まりました。

    1日目のプログラムはこちら

    FITに参加し始めたのは去年からなんですが、年々全国大会並に参加者が増えてるんじゃなかろうか。一日の構成は「午前中に1セッション、午後に特別講演と1セッション。これらと並行してイベント企画や展示会」となっているのですが、この1セッションあたりの並列度が21個もあって、全体の1割見るのすら無理になってたりします。予稿自体は見れるから良いというのもあるけど、ちょっと広く薄くなり過ぎてないかなー。狭く濃くやるなら研究会に行けよという話ではあるので、そっちにも参加する予定ではありますが。

    という訳で、あくまでの私自身が参加したプログラムに関する備忘録になります。

    午前中はイベント企画機械学習の最前線
    参加してから気づいたんですが、IBISML(情報論的学習理論と機械学習)研究会(Web URL、Twitter: @ibisml)主催のチュートリアル企画でした。興味があってMLにはROM参加しているのですが、どおりで興味のあるテーマが揃ってるチュートリアルな訳だ。プログラムにもそう書いててくれれば迷わなかったのにー。

    午後は特別講演と下地くん発表の一般物体認識セッションに参加してきました。

    青字は質疑応答時のやりとりですが、ニュアンス自体が大分違ってる可能性が高いです。

    食事の様子はこちら


    目次
    イベント企画: やさしく分かる機械学習の最前線 ~データから意味を読み取る~
     ・隠れた構造をあぶりだす ~トピックモデルを用いた潜在意味解析~
     ・こんなに使える最適化手法
     ・自然画像の事前確率分布を応用した画質改善

    特別講演: 粘菌の行動知 ~原始生命システムの自律分散情報処理~

    一般セッション: 一般物体認識



    イベント企画: やさしく分かる機械学習の最前線 ~データから意味を読み取る~

    隠れた構造をあぶりだす ~トピックモデルを用いた潜在意味解析~

    文書
     同じ文書で現れやすい単語のまとまり(トピック)
     各文書は少数のトピックを持つ
      Q: ツイート等の短文ではそもそも表出するシンボル数が少ないが、問題にならないか?
    画像
     同時に共起しやすい(写り込みやすい)対象
    
    トピックモデル=隠れた構造(トピック)を抽出するための確率モデル
     教師無し学習
     拡張容易
  トピックに相関を持たせたり、トピック間に階層構造持たせたり、
      観測データを増やしたり、etc.
     文書に限らず様々な離散データに対して有効性が示されてきている
    
    入力: bag-of-words
     単語集合表現、順序無し
     シンプルな多項分布:全文書の単語が同一分布であると仮定
     混合多項分布:複数の単語分布があると仮定(1文書は1トピックを選択)
     トピックモデル:1文書の単語が複数の分布から生成されると仮定(単語毎にトピックを選択)
      複数トピックを持つ文書も表現可能
    
    PLSAとLDA:代表的トピックモデル
     基本的には一緒で、ディリクレ事前分布を仮定しているのがLDA。ベイズ的。
     ディリクレ事前分布:多項分布のパラメータを生成するための分布
     性能的にはトピック数等実験設定にもよるが
      多項分布<PLSA<混合多項分布<LDA
    
グラフィカルモデル
     変数間の依存関係を図示したもの
    
    学習(Collapsed Gibbs サンプリング)
     θとφを積分消去:共役事前分布を用いているため可能
     入力:文書データ、トピック数K、ハイパーパラメータα・β
     未知変数:
    
    応用例
     時間変化するトピックの解析
      多重スケール時間(複数の時間スケール)でのトピック発展を解析するためのモデル
     内容と関連するタグの抽出
      ソーシャルアノテーション:SBM、写真共有等
      内容と関連しないタグ:後で読む/これは凄い(主観評価)/etc.
     ファッション推薦
      写真からコーディネートを学習、上衣から下衣を推薦
      上衣と下衣に分けて特徴量学習
    
    
    質疑応答
    Q: スーパーパラメータの推定の仕方は?
    A: MCMC+サンプリングからの導出など、事例データからの推定方法がいくつかある。
    
    Q: ファッション推薦の評価の仕方は?
    A: 雑誌写真で片方を隠した状態で評価。実際にユーザによる評価もすべきだと思う。
    
    Q: 内容に関連しないタグを抽出すると何に使える?
    A: その後の学習等の際に除外することで精度向上等につながる。
    
    


    こんなに使える最適化手法

    計算機性能向上+アルゴリズム進歩に伴い現実問題に対しても有効な手段に
     PCクラスタ利用した例だとスウェーデン全都市TSPでも最適解求まる段階に。
    
    最適化分野の概要
     意思決定・問題解決のための一手段
     定式化+最適解の計算+最適解の検証・分析
     制約条件を満たす解の中で目的関数を最小(最大)にする解を求める問題
      線形計画問題
       数千〜数万パラメータぐらいでも一般的なPCでサクサク解ける
      MIPもほぼ現実的なサイズで解けるようになってきたので、
      研究対象としては非線形なMIP等がトレンドになりつつある
    
    計算困難な組み合わせ最適化問題
     易しい問題
      多項式時間で最適解を求めるアルゴリズムが存在する問題
      割り当て問題→ハンガリー法、最短経路問題→ダイクストラ法等
     難しい問題
      厳密な最適解を求めるのに最悪の場合に入力サイズに対して指数時間を要すると
      臣事されている問題、NP困難問題
    
    現実問題に対するアプローチ
     厳密解法と近似解法
     汎用解法と専用解法
     既存ソルバーの利用
      かっちりとハマる専用ソルバーが見つかる事は稀
      汎用解法のソルバーもいろいろ揃ってきている
     自分でソルバーを開発
      試行錯誤に十分な開発期間があれば良い選択肢。
      ランダムウォークの方が効率良いことも。
    
    事例
     集合住宅における電気自動車の充電計画
     事業所における電気自動車の充放電計画
  時空間ネットワーク(time-expanded network)
     統計的機械翻訳におけるフレーズ対応
     基盤検査におけるプローブ経路計画
     多角形詰め込み問題
    
    
    Q: 整数計画問題→線形計画問題にして解き、後で丸めてしまうのが楽という話が
     あったが、0,1しかでてこないケースでも良いのか。
    A: 問題によりけりだが、0,1のケースでは丸めるのは難しい。
    Q: 0,1変数しかない場合で解き難いケースでは、メタヒューリスティックに行くのが良い?
    A: 0,1変数でも分枝限定法なりで解けるケースもある。
     必ずしもメタヒューリスティックが良いという訳ではない。
    
    


    自然画像の事前確率分布を応用した画質改善

    事前確率分布
     函館といえばイカ刺しが美味しいはず!
    尤度分布
     ひょっとしたら今朝のホテルのイカ刺しは
     東京で食べるイカ刺しと同じ味かもしれない?!
    事後確率分布
     しかし「事前確率分布」の思い込みの分だけ、
     実際にイカ刺しは美味しく感じます!
    
    事後確率最大化法(MAP法)を応用した画像処理紹介
     超解像処理、ぶれ回復処理、デノイジング処理、、
     逆問題として定式化:不良設定問題
      y=Ax+n, E(x)=||y-Ax||^2_2
      事前確率分布を設定することで一つに特定しやすくなる
    
    事前確率分布(思い込み)が大事
     観測する前から分かっている情報(思い込み)を数学的に表現し学習するのが難しい
     適応的事前確率分布モデル
     事前確率の更新(繰り返し処理)
    
    事前確率分布を使わない方法:ML法
     ML法:最尤法(尤度最大化)
     MAP法:事後確率最大化(事前確率分布を利用)
    
    
    Q: 事前情報のアップデートはずっと続けるとoverfittingになるのか?
    A: はい。
    Q: どうしたらよいか?
    A: 経験的にやることになるが、PSNRを示せる真値のあるデータで
     やってみるのも一つの方法。
    
    Q: 事前分布を構成する部分についてMAP推定しているが、
     ベイズ使うなら1点を求めるのではなく分布を求めるのが自然に思う。
    A: その通りで、最良推定に近くなっていると思う。分布を求めることも可能。
    
    Q: 画質改善の場合、見栄えを良くする場合と真値にすること自体が目的の場合とで
     分けて考えるべき?
    A: その通りで、犯罪捜査のようなケースだと真値が重要。見栄えの場合は、
     方法論としてTV対応等の場合にリアルタイム処理といったことが必要。
    Q: 提案手法のスケーラビリティは?
    A: 100枚でも1万枚でも問題内容な方法を提案。ただし位置合わせ的な前処理は必要。
    
    


    特別講演: 粘菌の行動知 ~原始生命システムの自律分散情報処理~

    迷路等の幾何学的なパズルを解くという事実
    時間的な記憶とでも呼べるような、周期的な環境変動を学習して思い出す
    個性や逡巡と思える行動
    
    粘菌紹介
    ビデオ:Like Nothing On Earth
     多核の単細胞生物:脈打ちながら周囲を覆い尽くす様
      複数の個体がぶつかり合うと1つの変形体に合体
      切っても1個体として生存
      Q: 1個体として繋がり合おうとする欲求or利点がある?
    
    パズル解き
     迷路中にバラバラに配置→合体
     入り口出口にオートミール設置→最短路へ
      生理的要請
       体が繋がっていて、十分情報交換できること
       なるべく早く大量の養分を吸収すること
    
    流れに応じて太さが変わる管(管の適応性)
     管の流れが多いと管は太くなり、少ないと細くなるという性質を持つ
     管を水道管ネットワークとしてモデル化
      管:長さと太さで記述
      えさ場:流入、流出(流量は固定)
      さらに適応ダイナミクス(強化と減衰のバランス)を導入
       保存量を介した相互作用
       個々の管が独立してバランスを保持するように固定流量に沿うように行動
       →シミュレーションで再現
    
    場所の違い:危険度最小化問題(部分的障害光照射エリアを避ける)
     光が当たっている箇所への縮小項のパラメータを拡張
     数学的に同等な問題:光の屈折(砂浜+海)
    
    どこが情報処理?
     ビット列でない「情報」表現
     物理運動が処理過程
     管同士で流れを取り合うと自ずと最短経路が求まる
      脳のような司令官が無くても賢く振る舞う仕組み?
      集団運動の自己組織化/自律分散処理
    
    カーナビへの応用
     概して悪い経路から消滅、時々刻々かわる渋滞に適応
     現行のダイクストラ法にない利点
    
    沢山のえさ場を繋ぐ
     3つの異なる性質を「ほどほど」に満足
      全長の長さが短くなるように(コスト)
      耐故障性:断線に対する連結補償性 *何でこれが必要?
      連絡距離:効率
     社会インフラのネットワークが持つべき性質
      鉄道網の粘菌式デザイン
       モデルではパラメータで耐故障性/コストをチューニング
    
    時間記憶?
     刺激タイミングの予測+思い出し
     モデルの仮定
      粘菌自体が何らかのリズム現象(拡大/縮小/動くためのリズム)がある
      そのリズムは多重である
      リズム(振動子)は位相のみ、振幅は無視
      同じリズムを持つ振動子が多数
      全振動子の平均的挙動(秩序パラメータ)が移動速度
     モデルの振る舞い
      自然刺激に近い振動数を持つ振動子群がクラスタ群(スーパークラスタ)を形成
       すぐには壊れず、予測的な動作に繋がる
       暫く刺激が無いと壊れる(重心を見るとないように見える)
    
    迷い・個性?
     弱い毒キニーネに遭遇→立ち止まる→通過/分裂/引き返し
      Q: 弱い毒で分裂が起こるなら、耐故障性との兼ね合いは?
      Q: 個性?どの個体でもいずれかを選択しうる可能性があり、
       スーパークラスタとの兼ね合いで決定される?
     暑い先端部が消えたり現れたり
      モデルのアウトライン
       ゾル、ゲルの2相流体
       ゲルの張力発生によるゾル流
       早い線形弾性と遅い塑性
      2つのサドルが近接した解起動が振り分ける
     類似のモデル
      導火線のアナロジー
       粘菌の先端らしさの活動性(燃え尽きたマッチの再生を考慮)
    
    書籍:粘菌 その驚くべき知性
    
    
    Q: 数学系の研究者らとの共同研究になっているケースが増えているようだが、
     生命とは何かということについて何か思うところはあるか。
    A: 手短に述べることはできない。ある米国研究者の議論によると「何でも
     定義できると思ってはいけない」ぐらいの定義しか出て来ないらしい。
     どれもまずは物理現象だと思おう。それでいろんなことが、生き物の
     生き物らしいことも理解できるんじゃないかと思ったのが15年ぐらい前。
     根は生物学者だが、ロジックは物理や数学。思いもよらないロジックを
     うまく使えばいろんな生命現象が説明できるのかなという期待を持っている。
    
    Q: 情報処理という分野はコンピュータの性能を良くしてどんどん早くする
     という方向に進む。スローライフではないが、それに則した情報処理技術を
     探すべきかなという観点もある。粘菌はどんな情報処理要素でどう処理して
     いるのか。そのモデルをうまく使えれば良さそうに思うが、何かないか。
     生物にならえという感覚について。
    A: そういうことを考えていきたいと本当に思う。早くなることは良いことだと
     思うが、解き方。力づくでやるのではなく、批判している訳ではないが、
     何か違う解き方が沢山ある。人間の顔認識でもそうだし、何か機会に
     やらせようとすると難しい所があるが、人間は簡単にやっているというような
     ケースがある。例えば野球でのフライの取り方。弾道計算とかはしてない。
     明示的にいうことができないことについて一つずつ掘り起こしていったら
     面白いのではないか。
    
    


    一般セッション: 一般物体認識

    • A Semi-Supervised MarginBoost Algorithm Applicable for Dissimilarity-Based Classifications
    • マルチモーダル入力に対応した重み付き多数決による識別器
    • PatchMatchを用いた類似パッチの高速KNN探索法
    • ここまで立ち見でメモできず

    • SIFT特徴量の共起を用いた一般物体認識手法に関する基礎研究
    
    Q: 一般物体認識で領域を分けるという話があったが、
     PASCALデータセットからの領域切り出しはどうやっているのか。
    A: データセット内にマスクが含まれており、これを利用した。
    
    Q: モデル1と2の違いが良く分からなかったが、
     SVMで学習するための特徴ベクトルの作り方が異なるのか。
    A: SVMでの学習は行わず、ヒストグラムでの尤度判定、
     多数決程度の処理で判別させている。尤度なりを学習させていくことは検討中。
    
    Q: 領域毎にSVM、もしくはヒストグラム化したのをSVMでそのまま学習
     させるとどうなのか。
    A: 試行実験では認識率が低かった。学習時に領域切り出しはできても、
     認識時には画像全体で特徴量を構築する必要があり、
     そのミスマッチが大きく影響していると考えられる。
    
    
  • 3次元特徴量を用いた構造表現による一般物体認識
  • 問題意識:SIFT+BoFでは位置情報や関係性が失われてしまう
     デプス情報を用いた3次元グラフ構造表現
     D-SIFT→グラフ化→グラフ編集距離→識別器
      濃淡画像をモノクロ変換してSIFT
      3次元グラフ構造表現
       近接グラフ、疑似階層グラフ
      グラフ編集距離
       Q: 各編集コストはどう調整する?
    
    
    Q: どのぐらい時間がかかるのか? 例えばリアルタイム処理可能か?
    A: 普通のPCで半日程度。
    
    Q: 最初の発表におけるDissimilarityを使うということに近いように思うが。
    A: リンゴと桃、オレンジのように形上はほぼ違いが無い。
     それを区別できるように導入してみた。
    
    Q: 距離が合っていれば形状が正しいと考えて良いか。
    A: 必ずしも正しいとは限らない。
    
    Q: グラフ編集距離の求め方は?
    A: D-SIFT上で一定値を設けて近さを求めている。エッジの計算に時間がかかる。
    
    Q: D-SIFTはダメだという話なのか、物体の形状依存なのか。
     SIFT等と組み合わせて使うと良いとかありそうか。
    A: SIFTでは取れる(区別できる)ケースでも、D-SIFTではうまくいかない
     ケースがある。デプス情報からSIFTを取ること自体がおかしい可能性がある。
    
    
  • 移動ステレオカメラ画像中からの移動物体抽出と三次元データのセグメンテーションの検討 -SIFT特徴点を元にした前景・背景のエネルギー関数を組み込んだ手法の提案-
  • 問題意識:より頑健な(様々な状況に対応できるorより制約の少ない)移動物体抽出の必要性
     セグメンテーションの精度向上
      TMRによる動物体領域抽出
      複雑な物体:アフィン変換→Feature-Cut
    
    
    Q: 従来失敗していた原因と、それが成功したのは何が効いていたのか。
    A: Feature-Cutによる
    
    Q: 動画の背景が白く、セグメンテーションとしては簡単にやれそうな実験。
     従来法は、何故グラフカットに失敗しているのか。背景全体をシードにするのではなく、
     forground の外側をシードにするとやれるのでは。
    A: 考えてはいるが、形状にも依存してしまうため難しそう。
    
    Q: 今回の実験ではアフィン変換でも良さそうだが、ダメなのか。
     またより複雑な、実際アフィン変換では難しそうなケースではどうなるのか。
    A: 試していないので分からないが、Feature-Cutが高精度なのでこちらを中心に進めている。
    
    
  • 局所的色彩モーメント不変量で構成したベイジアンネットワークによる画像照合
  • 問題意識:似た特徴を持つ画像検索では特徴の選び方が重要
    局所的色分布特徴量
     RGB、色相関など
     色相関距離
     符号化
      Q: 単純な2値化の仕方としては面白いが、実際には統一ルールでは難しくない?
    照合エンジン(ベイジアンネットワーク)
     Q: ナイーブベイズと差が出てないのはどう解釈したら良い?
    
    
    Q: 部分画像集合の特徴値分布を使う考え方はうまくいきそうに思えるが、どうやっているのか。
    A: (再説明)
    
    Q: 特徴量の分布状態を評価していることに相当する?
    A: 計算した統計量から特徴値を2値に評価しているだけ。
    
    Q: 問題設定について。全く同じ写真を探したいのか、同じ被写体を探したいのか、同じ種類を探したいのか。
    A: 同じ種類のものを探したい。
    
    
  • 画像を用いた物体の詳細情報認識手法
  • 問題意識:物体とその物体の詳細を認識させたい。e.g., TV+電源ボタン
     詳細部分:人間が直接操作を行う部分
    
    
    Q: 位置情報を用いて補正する場合の基準となる減点は、特定の一点を使っている?
    A: 既に特定された部分で、かつ、一番近い場所を捜査して推測する。
    
    Q: 例えばキーボードの場合は多くのキーがある。文字認識が間違ってるやつもあるが、それもそのまま採用してしまう? 正しく認識できたものだけ利用するとかなり精度向上すると思うが。
    A: 今は採用してしまうが、検討中。
    
    Q: 無料OCRでGoogleのものがあるが、今回商用を採用したのは精度の問題?
    A: Googleは比較はしていないが、比較した中で精度の高かった最新版を採用した。
    
    Q: OCRソフトは想定している利用状況にも依存しそうだが。キーボードやるならキーボードの辞書使うとか。
    A: 文書対象なので文書だと前後の文字から補正することも可能だが、今回はそういった補正が効かない。そういった方向も考えてみたい。
    
    Q: リモコンの場合でもキー番号が独立して配置されているが、文字と文字の間に意味があるケースだとOCRの精度が高くなるのか。
    A: 高くなると考えている。
    
    Q: 文字を基にマッチングを行っていて、SIFT特徴量等で使われている幾何的な情報が使われていないが、そういった情報を使ってみても補正しやすくなるのでは。
    A: 試作中だがまだ検討段階。
    
    

    NLP2011, 併設ワークショップ「自然言語処理における企業と大学と学生の関係」に参加しての感想

    日曜日, 3月 13th, 2011

    細かいメモもありますが、togetterによるツイートまとめ(午前午後)に譲るとして、ここではパネリストによる意見の中をグルーピングしつつ、感じた感想を述べたいと思います。グルーピング次第でどうにでも取れる文面もあるので、実際にどういう流れで討論されていたかは前述のtogetter見る方が良いでしょう。

    まず前提その一として、今回の討論は「何かを決めよう」ということは目的にされていません。互いに意見を主張し合い討論することで多くの視点や意見をアウトプットすること自体が目的のようです。
    その二として、タイトルに「自然言語処理における」とあり、確かにそういう側面の話も含まれていたのですが、結果としては分野に囚われない一般的な話が多かったように思います。
    その三として、そこが削れたためか、就職活動に関連した話題が多かったです。
    その四として、往々に起こる状況と思いますが、「声の小さい学生」の話題が少なかったです。
    これらのことを踏まえて、企業・大学・学生の三者がどのように考えているか、という議論についての感想になります。

    目次


    超約

    • 自分で考えて行動しよう。行動しないことには何も得られない。
    • 行動した結果失敗したとしても、大した事なく済むことが殆ど。失敗してそこから学び、次ぎに活かそう。
    • 強い動機を持って行動する人には手を差し伸べようとする人が多い。公開し続けていれば仲間が増える。
    • 具体的に行動する(e.g.,対面する)のを躊躇してしまうのだとしても、メールやツイッターみたいなカジュアルなツールならそうでもないのでは? 手段は豊富にあるのだから自分にあった方法で行動しよう。

    読誦論

    • 基礎か、応用か、悩んでいる暇があったら基礎を身につけよう。
    • 読誦すべき。何をやったとしても局所解に陥らないことを保証することはできない。読誦し、いろんな視点を得よう。
    • 読書は大切だが、優秀過ぎて「簡単に読めてしまう」のは少し問題。時間をかけて向き合うことで読み解けるものもある。相手の求める速度に合わせて読もう。
    • 本を捨てて街に出る(行動す)べき。勉強/努力することは大事だが、全て万全に整うまで挑戦/行動しないというのでは時機を逸することが大半。行動し、失敗しながら学ぼう。若いことはそれだけで勝っている。失敗しても大したことが無いことが大いし、若いうちの方がやり直す時間が多い。
    • 面白いことを見つけよう。学生なら教科書、論文、書籍、ネット、友人、先生、両親あたりが多いだろう。企業では、例えば、リアルデータ、異分野異業種、多様な現場といった「知らない所」からも見つけている。
    • 違和感を感じるためにも外(専門外の専門や、学外)に出よう。初めての体験をすることで感じる違和感は想像の種になる。

    大学論

    • 目的次第になるが、中途半端に企業に歩み寄っても、企業/大学/学生三者にとって不幸になることがあり得るのでは。大学はどうあるべきかといった理念・目標を見据え、行動すべきだろう。
    • 大学でないとやれないことは何か、と突き詰めるのも一つの道。
    • 古い技術を工夫して具体的な応用に結びつける所も大切なこと。ただし、大抵の「やってみた」レベルのことは企業でもやっている。大人の事情で見えないだけ。努力しよう。高度に知的な作業が努力である。
    • 企業/大学の双方にとって有益な紳士協定なりの協力の仕方もあるだろう。例えば、大学ではコア部分(差別化)を作成し、企業ではリスク部分(大きなエラーはぜ絶対に起こさない)を構築するなど。対価として金銭的なやり取りだけじゃなく、データやノウハウでの交換等柔軟なやり方が考えられると思う。

    企業論

    • データを出して欲しいとか言われるが、具体的にどう役立てたいからどういう切り口で取得したデータが欲しいのか、明示して欲しい。持ってるもの全てと言われても、基本的に持ってるデータはこちらの意図で収集したもので、それがマッチしているとは限らない。
    • データと向き合うことで真実を探るというスタンスも良いと思うが、データを蓄積するというのはコストがかかるということ。タイムライン的に見返りが得られる等の説明ができないと、データを出すよう説得するのも困難。
    • そもそも「本当に解決したいこと」があるならデータが出てくるのを待つのではなく、企業に来てやるという選択肢もある。何故そうならない?
    • 企業にもいろいろあり、自社ではデータを持たず、大学より大学らしく活動している所もある。

    学生論

    • 地方の学生は東京と比べて勉強会自体の機会が少なく、選択肢以前の問題。
    • 逆説的だが、お膳立てされてる環境では学べないことも多くある。主催することで学べることも少なくない。それが何かに役立つとは限らないが、身に付くものはある。
    • 言われたことをやるだけの人材は要らない。例えば「一見完成しているように見えるサービス」から課題を抽出し、それにどう取り組むかを考える力が必要。それらは一つ一つの課題に丁寧に取り組むことで身に付く力なはず。一つの専門分野で解決できることも年々減っているので、いろんなことに興味を持って取り組もう。
    • アメリカにインターンに行った経験からすると、TG(学生なら誰でもFreeDrinkFreeFood)など企業の方と接するカジュアルな場がちょくちょくある。日本でももっと用意して欲しい。
    • (プチ)ロールモデルになる目標になる人を探し、そうなるよう努力しよう。全てが困難なら一部でも良い。
    • やってることを分かりやすく公開しよう。公開手段は豊富にある世の中になった。
    • 就職するときというのは、自分が何をやりたいかというのがまだ見つかっていない状況かもしれない。しかしだからこそ、興味ない会社でも良いと思うから、会って話をすることが大事。まとめて話せるようになることによって自分が見えて、自信が生まれてくるのだと思う。
    • 学生の頃、入社した時点では良くも悪くもぱっとしなくとも、入社後に光り輝く人材も少なくない。それまで見えていないだけだったかもしれないが、具体的な問題に対面することでモチベーションを持って取り組んでいるからかもしれない。こういう人材をどうやったら探せるのだろうか。
    • 友情(一人でできることなんてたかがしれている。一緒にやる人を探し互いに助け合う。信頼関係)、努力(努力せずにやれることはどこかで既にやられている)、勝利(小さくていいから目標を決めて、達成する。それを徐々に上げていき繰り返す)!
    • 今は、効率とかそういうのが求められていて、車輪の再発明は怒られることが多い。ただ個人的には良いと思っていて、学生には再発明で良いからどんどん人の真似をして欲しい。やってみて初めて見えてくるものがある。

    リスク・テイカー論

    • リスク・テイカーになろう。そのための教育というのはあるのだろうか。
    • そもそも「何もしない」という大きなリスクを選択していることに気づこう。
    • 「リスク=自分の何かを犠牲にすること」ではない。好きなことに没頭してやっていることが、他人から見ると結果的にリスクを選択していたということが少なくない。好き勝手にやろう。
    • 外に出ない学生は危機感が欠落し過ぎ。中国も教育レベルは向上しており、国際全体が競争相手の世の中に突入するのは目前ということに気づいていない。例えばスタンフォード大で大挙して留学に訪れ「俺ここで学ぶんだぜ!!」と熱意を持ってる学生の割合は年々増加している。日本人もいないわけではないが、少ない。一度は留学なりで外に出よう。
    • 日本に留学に来ている身としても実感しているが、留学するリスクは比較的得られるものが多く、積極的に取るべき候補だと思う。
    • 優秀な学生とか何とかよりも「やったか」「やらなかったか」。失敗してもそこから学べば身になる。

    就職活動論

    • 学生は何故ここまで凝り固まった考え方/アプローチの仕方を選ぶのだろうか? 就職活動時期を柔軟にして欲しいとの声もあったがどちらかと言うと紳士協定があるから「新卒採用枠」を一定の時期に設けているだけで、そこに拘っているわけではない。むしろ今なら中途採用の方が見てもらえることの方が多い。中途採用以外にもいろいろルートはあるが、一般的なルートでないところを強行突破するにはそれなりの「何か」は必須。強者論の話。
    • 今回のワークショップに学部生も結構参加してくれていることは素直に喜べる。だけど、懇親会で企業の人から名刺貰った人はどれぐらいいる?勉強会でも何でも良いから、切っ掛けがモノにする努力をするべき。自分から声をかけ難いなら先生に取り次いでもらうのも良いだろう。
    • 一方で、いろいろお膳立てしてもらわないと動けないという学生は、就職後に本当に役立つのだろうかという不安を感じている側面もある。本当にやりたいことがあるなら、学会でも良いし、ブログなりツイッターなりカジュアルな方式でも良いからどんどん学外/企業/世間に向けてPRするべき。情報発信する努力をしない人は、そもそも企業からは「見えない学生」。
    • 就職すると縛られてやりたいことがやれないとか考える人もいるかもしれないが、就職してみた立場としては案外そうでも無いなという印象。見えないから分からない、だから何となく不安というのであれば、会社見学でも勉強会でも今回のようなワークショップでもイベントをセッティングして呼んでください。企業は忙しいからイベントをセッティングするまでやるのは大変だが、呼ばれれば喜んで行く所が多い。

    インターン論

    • 企業を知る一つの方法。
    • インターンは数ヶ月以上長期のものがベターだとは思うが、それ以上に大切なのは「インターンで何かを持ち帰る」という強い意識。目的が不明確なまま来ても身に付かない。
    • 留学兼ねて海外インターンもある。最低限の英会話は必要だが、それ以上にモチベーションが重要。世界各国からインターンに来る学生らとどう絡むか。積極的に交流する努力も大切。
    • インターンに行ったことは無いが、学生と企業の関係にもいろいろあるのでは。

    関連リンク

    NLP2011, 本会議3日目終了(セッションE3:不自然言語処理 枠に収まらない言語表現の処理(1)、B4:対話・文脈処理、A5:教育応用)

    木曜日, 3月 10th, 2011

    NLP2011、本会議3日目(一般講演セッション3つ)。
    本会議最終日は、
     E3:不自然言語処理 枠に収まらない言語表現の処理(1)
     B4:対話・文脈処理
     A5:教育応用
    に参加してきました。

    夜は交流行事があるようなのですが、力つきて見送ってしまいました。明日もまだあるし。というか皆さんほんと体力ありますね(汗)

    三日目にしてようやく「素性」の大切さというか、高精度を実現しようとすると苦労するポイントが似通ってくるんだなというのが分かってきました。それぐらい、多くの発表で出てくる話題。人間ってどうやって素性を捉えているんでしょうね。

    目次
    E3:不自然言語処理 枠に収まらない言語表現の処理(1)
     ・文頭固定法による効率的な回文生成
     ・日本語常用漢字熟語の選好変化と自然言語処理
     ・「不自然言語処理コンテスト」第1回開催報告
     ・ウェブからの疾病情報の大規模かつ即時的な抽出手法
     ・データ圧縮率を用いるテキストアート抽出法におけるテキストの正規化手法
     ・感情推定における若者言葉の影響
     ・教師付き外れ値検出による新語義の発見
     ・定型から逸脱した言語表現の分析

    B4:対話・文脈処理
     ・POMDPを用いた聞き役対話システムの対話制御
     ・対話型e-Learningシステムの開発
     ・共通状態と連結学習を用いたHMMによるコールセンタ対話の要約
     ・コールメモを利用したコールセンタ向け音声対話要約方式の提案
     ・Toward Plan Recognition in Discourse Using Large-Scale Lexical Resources
     ・視線情報を利用した協調作業対話における参照解析
     ・直接照応解析における分野情報および文脈情報の有効性検証

    A5:教育応用
     ・学習指導要領に立脚した児童作文自動点検システムの実現
     ・非日本語母国話者の作成するシステム開発文書を対象とした助詞の誤用判定
     ・翻訳教育向け「みんなの翻訳」
     ・Stativity判定に基づいた時制誤り検出
     ・最大クリーク探索に基づく特許検索履歴の統合
     ・テレビスポーツ番組におけるリアルタイム字幕の特徴

    
    
    
    
    E3:不自然言語処理 枠に収まらない言語表現の処理(1)
    3月10日(木) 9:00-11:50 A1-301教室  座長: 村上浩司 (楽天)
    E3-1 文頭固定法による効率的な回文生成 (pp.826-829)
    ○鈴木啓輔, 佐藤理史, 駒谷和範 (名大)
    回文条件3つ  語順+文法+意味  機械での判断難易度:語順<文法(文節内文法+係り受けチェック)<意味   語順+文節内文法までのチェックを行う 回文条件1のために、網羅的生成では時間がかかりすぎる  折り返し固定法→文頭固定法(シード文節を文頭文節にする)   初期状態数が減る+初期状態での不足文字列が現れ難い    文節数3: 21時間→42分 文節集合のクリーニング  JUMAN形態素辞書から読み2文字以下の語構成要素を人手で削除  コーパス対応  →生成数・生成時間が1/3に、高精度で生成できた   JUMANで「罪」を常に「ざい」と読んでしまう等で生成できない回文もあった Q: 直接的に何に利用できるか想像つかないけど、「お遊び」を解析すること  で得られる知見が間接的に応用できることはありえそう。どういうものが  あるだろう。。 会場Q: (1)折り返し固定法と文頭固定法とで良い回文生成という点でどういう  違いがあるか。(2)多くの時間がかかるが、アルゴリズムやデータの持ち方  についてどのぐらい高速になったのか。 A: (1)全文生成なので同じ。(2)いろいろ工夫していたがこれまでは劇的な  改善には結びつかなかった。今回の手法で初めて大幅に改善できた。 会場Q: 今後の課題について、生成候補を文法や意味的に絞り込むようだが、  単語の言語モデル等を考慮して自然な文にすると想像するが、最初の段階  でランキングするといったことは考えられるか。 A: 係り受けチェックや意味チェックは動的にやっていきたいと考えている。 会場Q: 回文は楽しいと思うが、3文節ぐらいだとつまらないように思う。  人が頑張ると持ってできそう。長くなる程人間にはできなくなると思うので、  生成した回文を公開して欲しい。 A: まだ公開していないが、ちゃんとチェックしたら公開できるようにしたいと思う。
    E3-2 日本語常用漢字熟語の選好変化と自然言語処理 (pp.830-833)
    ○砂岡和子 (早大), 羅鳳珠 (台湾元智大)
    中国台湾香港との共同研究。 不自然な言語をどう扱うかというより、教育という観点から、 発話される言語そのものをどう扱うかということについて取り組んでいる。 日本人中国語学習者がどの程度認知しているか  四字熟語、故事成語の計328語が対象  小学生対象時には、一部をひらがなに置き換えて実施   半数以上が認知できない慣用句もあり    親子関係、生活環境の変化   若年層の慣用句の誤用は年々増加傾向   情報収集はネット経由が過半数になりつつある    言葉の意味やニュアンスが変わる   入力ソフトで出てきた候補を選んでしまう 言語資源の階層  子供の言語→地域言語→広域言語→グローバル言語  音声言語→文字言語  インフォーマル言語→フォーマル言語 Q: ネット経由での情報収集が増えると、言葉の意味やニュアンスが  変わりやすくなる? 身内用語(用例)が増えるということかしら。 会場Q: 故事成語だと時代毎に変化がありそう。それらを複数登録すべきなのか。 A: どちらもありえる。両方併記の上、意味を解説するという方針もあると思う。 登壇者Q: 言語政策そのものには関心があるのか? A: Google 日本語入力作っているが、正しい日本語入力をしたいという人に  対応できるように作りたいと考えている。
    E3-3 「不自然言語処理コンテスト」第1回開催報告 (pp.834-837)
    ○萩原正人 (楽天), 大原一輝 (フリー), 水野貴明 (バイドゥ), 橋本泰一 (東工大), 荒牧英治 (東大), 竹迫良範 (サイボウズ)
    背景  ノイズの存在  実データは「(綺麗な)文法的な言語表現」の前提が崩れる 不自然な言語現象  変則的な固有表現・未知語:モーニング娘。せきじゃに  口語表現・オノマトペ・新語:本田△  異表記・表記揺れ・略語等:ふいんき(なぜか変換できない) kwsk ギャル文字  顔文字・AA・絵文字  スパム検出、不正検出  スペル訂正  etc. 不自然言語処理コンテスト  お題「不自然言語を使ったコミュニケーションを豊かにするサービスや作品、     プログラムなどを作ること」  発表形式・形態は自由  モバイルWebの形態素nグラム統計を公開   絵文字を形態素として含む   キャリア別   MeCab+IPADicにより解析 受賞作品紹介  グランプリ「Soramegraph」   Tweetのなんとかをなんとかに空目した   →空目した関係を可視化  準グランプリ「誤字ェネレータ」   ワザと類似した誤字に変換   画像の類似度を測って、割と真面目。  審査員特別賞「感情のこもった返答テンプレ生成君」   例:テンション高いテンプレ(近いもの)を利用   「飲み会行きましょう」→「是非行きましょう!」 LT賞「ケンブッリジ大学」  検索避けのため不自然な言語を使うという現象  ただし、書きづらいし、読みづらい→コミュニケーションが非活性化  →ケンリブッジ大学   文字列を画像化   文字順番は割とばらばらでも読める   「こんにちは!不自然言語処理セッションへようこそ!」   →「こんちには!不自然言語処理セシッョンへようこそ!」  単にゴミとして扱うのではなく、親密度として扱うと面白いのでは。 応募作品総評  作品傾向:絵文字挿入や不自然なことばに書き換えるもの  Perl, Ruby, Python などのLLでの実装 Q: 「単にゴミとして扱うのではなく、親密度として扱うと面白いのでは」  という視点が面白い!目的によってどう扱うかはちゃんと検討しないとね。 会場Q: 日本語以外にも、他の言語でもやり始められていることなのか。 A: 英語ではノイジーテキストを処理しようというワークショップが開催  されている。他言語でもあると思うが、英語以外では把握していない。 会場Q: ワザと不自然言語に変換するというのは他言語でもあるのか。 A: 絵文字やギャル文字の文化は、把握している限りでは日本語で文化が  進化。表現しやすいというのもあると思うが、既に文化として根付い  ているのは日本語ぐらい。 会場Q: 境界はあるのか。 A: グレーな所が多いと思う。AKB48がイレギュラーとか簡単に断じる  ことができる、そもそもどう定めるべきかから考える必要があると思う。
    E3-4 ウェブからの疾病情報の大規模かつ即時的な抽出手法 (pp.838-841)
    ○荒牧英治 (東大), 森田瑞樹 (医薬基盤研究所), 篠原(山田)恵美子, 岡瑞起 (東大)
    例:カゼミル 調査集計には時間がかかり、集計後には既に蔓延していることがありえる。 Twitterで検索クエリを人手で準備し収集  「風邪」→風邪、熱、インフルエンザ   ただし実際に流行している訳ではなく噂としての流行も拾ってしまう  「ひきそう」→願望/予防はフィルタリング  動物の症状や誤字→フィルタリング 学習器による事実/非事実判定≒スパム判定  内容(命題)の妥当性+モダリティの妥当性  条件毎にコーパスを作成し、2種類の判定器を構築   命題とモダリティ両者が正しいなら事実クラス   周辺語のBOW(window size=6が最も良かった)   ベースラインより若干改善するが、タスク毎に差もあり要調査   SVM以外も試してみたが比較的どれも良く、一番良かったのはNaiveBayse  どの程度、現実を予測できるのか   国立感染症情報センターの報告との相関係数   2008年、Googleより提案手法が若干良い結果。   2009年夏、Twitterが噂に反応しやすいのか、悪い結果に。   ピーク前後で比較すると、前は過剰反応する傾向あり。   その部分ではGoogleより傾向を取りやすい。 Q: 噂センサーとして、流行前兆についてヒットしやすい点を、単純に「命題+  モダリティ」という点で学習(フィルタリング)してもあまりうまくいかない  という結果だと思うけど、これ、人間でもうまく判断できない問題設定  (かなりタフなタスク)だったり? 何を根拠に信じるかというのは  その人の環境要因が大きく作用する面もあるだろうし、内面的な要因  が強い場合もあるだろうし。うーん。。 会場Q: ツイッターをセンサーとしてみるのは面白い。niftyでも花粉症で  似たような話をされていた。センサーとして考えると感度や地方差がある。  関西では花粉との相関が低いらしい。理由は良く分からない。 A: 花粉症も一緒にやっており、spin out してやっている。アイデアは今の所  まだないので、何かあれば。 会場Q: モダリティについて、人に直接確認はされたのか。 A: 現状の技術でリーズナブルだと思う。 会場Q: 不自然言語処理のセッションとして、言語処理をキチンとやった  場合と統計ベースとの比較はしているのか。係り受け解析とかやるより  統計解析の方が良かったのか。 A: ツイッターの場合には構文解析精度が落ちると予想し、今回は試していない。 会場Q: 文字列や文末を使うというのは。 A: 文末だけ別に加える等もできそうで、興味深い。 会場Q: ピーク前後といったことを考慮した数理モデルを用いた方が、  より精度が高くなるのでは。 A: 考えてみたいと思います。
    E3-5 データ圧縮率を用いるテキストアート抽出法におけるテキストの正規化手法 (pp.842-845)
    ○鈴木徹也 (芝浦工大)
    テキストアート(アスキーアート)の抽出  行指向(複数行で構成された行単位のもの)のテキストアートを扱う  テキストアート識別法  テキストアート抽出法(範囲を判定)  空白の取り扱い   全角半角が混在。視覚的には空白だが何も無い箇所もある。   →空白の正規化手法を確認したい 言語に依存しないテキストアート抽出法  辞書や文字出現頻度を用いない  テキストアートらしさ  利用する属性   ランレングス符号化による圧縮率   行数   文字列長 抽出概要  候補範囲の決定→窓内のテキストについて識別することで範囲決定  機械学習c4.5で識別  正規化3種類+正規化無しの4パターンを比較   半角スペース統一/AA右側に不足分追加/AA左側を削除   Q: テキストアートって何らかの生成システム使ってることが多いと思う  (多分)のだけど、いくつかの生成システム自体の入出力特性を見る  ことで「テキストアートらしさ」を傾向として捉えることできたり  しないのかしら。 会場Q: 窓をスライドさせてテキストアートらしさを判定しているようだが、  アートによっては左にもキャラクタや何かしらおいてることがあるが、  一部分に窓を設定することはできるか。 A: 今の所考えていない。圧縮率を見ようとするとちょっと困難。 会場Q: どういうのが取れない、というのはあるか。ざっと見て取れるかなと  思ったが、逆に取れないものがあるのか。 A: 実験のデータでは割と取れているが、2chとかに適用すると取れないのが多い。  数式とか。 会場Q: 目標は何か。取った後で何をする? A: テキストアートの範囲だけでなく、予めテキストアートDBを作っておいた  ものと比較してどれに近いか、といったことを考えている。
    E3-6 感情推定における若者言葉の影響 (pp.846-849)
    ○松本和幸, 任福継 (徳島大)
    くだけた口語表現、多様な新しい表現(若者言葉など) テキストからの感情推定  若者言葉を既知語に変換する事例があるが、  元語が必須で、かつ変換することで微妙な意味の変化が失われる可能性。  →そのままの形で感情推定する 問題点  多くは未知語で正しく形態素解析できない事が多い  若者言葉感情コーパス(WKEC)を構築   コーパス分析するとそれなりに感情推定できる傾向がありそう 若者言葉を素性にした場合とそうでない場合とを比較  ベースラインを平均14.9%上回る精度  SVM vs. NB -> NBが高い Q: 「若者言葉を素性にしない場合」というのは形態素解析失敗結果を  そのまま素性にした場合? N-gram素性とどっちが良いのかな。 会場Q: 若者言葉感情コーパスに関して。(1)作業者2名は若者だったんでしょうか。  (2)そのコーパスを公開する予定があるか。 A: (1)私自身+学生。(2)公開したいと思うが、個人名が多く入ってたりするため、  整理してからの予定。 会場Q: 若者言葉が入っていることを検出する際、mecab辞書として登録した?  別処理で対応? A: コーパスに付与している若者言葉をそのまま素性とした。誤り分割結果に  ついて観察した結果、形態素解析結果は使っていない。 会場Q: 感情を13種類としたのは何故? A: 心理学での分類を考慮しつつ、増やしている。 会場Q: クラスが増える程当らなくなる、一致しなくなると思う。例えば怒りと  嫌悪は近いとかあるのでは。 A: その通りで、人によっては怒りと捉えたりという差異が見られた。  タグ付与者は別々に作業した。 会場Q: 若者言葉に感情表現が多く含まれているというデータは何かしら  あるのか。そうでないと、今回は単にそこにタグを付与したから  うまくいったという結果でしかないと思う。 A: そういうデータは今の所ない。 会場Q: そこの検証をしないと、若者言葉に着目した方が良いという  根拠としては不十分では。 A: その通りで、今後分析していきたい。
    E3-7 教師付き外れ値検出による新語義の発見 (pp.850-853)
    ○新納浩幸, 佐々木稔 (茨城大)
    対象単語の用例集から、その単語が新語義となっている用例を検出したい。  辞書の拡張、管理。  仮説:新語義は用例集内の「外れ値」になっているだろう  →外れ値検出 LOF(Local Outlier Factor) 大きく外れている値だけでなく、近い外れ値も取りたい。  単純は外れ値ではない。  新語義の場合は定義可能なので「教室付き」外れ値検出  識別の信頼度は無益でクラスタまでの距離を考慮する必要あり   教師付きLOF+LOF値の大きい上位を対象   教師データがあってもクラスタ分布が未知。マハラノビス距離は意味が無い。   距離だけでなく分散も必要   →重心を利用した外れ値の度合い 実験  SemEval-2 日本語WSDの48単語  与えられた語義に該当しないものもある  2400用例中16用例が新語義   F値: LOF=LOF+OneClassSVM<OneClassSVM<教師付きLOF<提案手法   基本的に低い  誤検出の原因   特異用例(誤り、専門用語):「そんな時間必要ないけど」   書き誤りに近いもの:「私が子供産んだとき」   距離の差がほぼ同等   パラメータの問題 Q: クラスタリング(ベクトルやクラスタ間類似度)じゃなくて、  別のアプローチが考えられないのかしら。教師データを設定  しやすいというのは大きなメリットだと思うし。 会場Q: 使ってる素性は? A: WSDで使う一般的な素性。 会場Q: そうすると、未検出が多い場合にはその素性が役に立たないのか、  距離計算の方が問題? A: 素性の方が問題。多分、無理なんじゃないかと。素性が悪いと距離も悪くなる。  今回の用例では偏りのあるタスク過ぎるというのもあるかしれない。
    E3-8 定型から逸脱した言語表現の分析 (pp.854-857)
    ○土屋智行 (京大/学振)
    定型とは  複数の語が様々な組み合わせで慣習化し、定着したもの。  あらゆる語のあらゆる組み合わせが存在   字義的な意味と異なる場合、解釈すら難しい場合(手を焼く)  定型は頻繁に破られる   例:「鬼に金棒 弁慶に薙刀 ローソンにATM」   →前段無くても意味は分かる。    人は、逸脱表現の「元表現が何なのか」を特定し、    「意味的な差異」を理解できる    →定型の逸脱表調査とその分析 どれだけ逸脱しているか(逸脱バリエーション) 元形式がどれだけ保持されているか(定型的な表現の特徴)  「NP1にNP2なし」の表現4例  Sketch EngineのJpWaCコーパス(ウェブコーパス)から抽出   元表現より逸脱表現が多いものも、逆傾向もあり。   Pattern Lattice Builder (PLB) で分析    組み合わせ抽出ツール    パターン生成し、説明力のある接続ノード数を調査 様々な逸脱用法があるが、
話者にとって逸脱しやすいパターンとそうでないパターンに偏りがある。 元の表現を喚起しやすいパターン等への分析へ。 Q: 「定型は頻繁に破られる」の破られ方をパターン的に調査しているが、  PLBのような定型化しやすいパターンでは補えない(見過ごしている)が、  人間だとパターンとして認識しやすいものって無いのだろうか。  例えば「いとをかし」とかは単体じゃなくて別の文と一緒に使うことで  初めて違う意味を持たせる、みたいなものだろうし。ただの多義語? 会場Q: 考察対象にしたのが元表現の形態素のみを含むパターンになっているが、  そうではないパターンでかつある程度の頻度が高いものがあったとしたら、  どういうものがあったのか。 A: 例えば「触らぬ神に祟りなし」だと「神」が変えられている例が多数が  ある一方で、異表記パターン(祟り、たたり)もあった。 会場Q: 検出を考えると、そういうのがあるなら、元表現と同じではない  逸脱パターンを見つける方向にいけるのではないか。 A: 可能性としてあることは認識しており、今後考えていきたいと思う。
    B4:対話・文脈処理
    3月10日(木) 13:00-15:30 A2-101教室  座長: 駒谷和範 (名大)
    B4-1 POMDPを用いた聞き役対話システムの対話制御 (pp.912-915)
    ○目黒豊美, 東中竜一郎, 南泰浩, 堂坂浩二 (NTT)
    聞き役対話  二者間の発話で一方が聞き役、多方が話役という役割を持った対話  聞き役は相づちだけではない  質問したり自己開示(自分の意見)したりして、発話を促す、引き出すことが重要  「聞いてもらいたい」という欲求を満足させる 発話理解部+対話制御部(対話履歴)+発話生成部  今回は対話制御について。   例)ノンバーバルな聞き役(ジェスチャー)    →言語表現でやる POMDP: システム・ユーザのインタラクションをモデル化(する機械学習)  報酬(あるアクションの結果の望ましさ)の平均値を最大にするアクションを選択  ただしタスクが明確でない対話への応用例はない  →ユーザ満足度+自然性の二種類の報酬を導入   DBNでシステムとユーザの振る舞いをモデル化   アクションに報酬を与える構造(POMDB)に変換    HMMやEvenPOMDPより高評価 Q: 制御部の話だから出力をどう生成するかについての話がなさそうなんだけど、  強化学習するには出力が必須なはず。文選択させるとかで疑似出力に  してたりするのかな。  →カテゴリ 会場Q: 満足度と自然性の両方を定義したとのことだが、バランスも重要では。  そこも強化学習の枠組みでやっているのか、単純に5部5部なのか。 A: 足しているのだが、重みは数パターン試した上で調整した。そもそも異なる  スケールなので、単純に重みとして言えるかは分からないが、  満足度:確率で確率の方が4,5倍して、同じぐらいになるように調整してある。 会場Q: 何を評価しているのか良く分からなかった。シーケンスを評価している? A: 本当に評価したかったのは対話行為の列だが、人手で対話文を生成した上で  評価した。 会場Q: そこはくせ者で、何を「自己開示」にするかがコントロールされないと、  何を評価しているかが分からないのでは。 A: 文生成にはルールを決めた上で、キーワードを埋め込む形で生成。  いくつかルールがあるが、そこからの選択は人手になっている。 会場Q: そこをコントロールしないと、どちらが効いているのかが良く分からない。 A: 16人に生成してもらった上で評価しており、  ある程度ならされた評価にはなっていると思う。 会場Q: 対話行為を自然文になおすというのはとても難しい。コーパスに対して  スコアリングしていて、一番右側の文を自動生成できない理由は? A: 今回の学習は対話行為列をアノテートしたものを使っており、  出力は対話行為までが限界。 会場Q: そのままだと汎化しすぎているように見える。
    B4-2 対話型e-Learningシステムの開発 (pp.916-919)
    ○峯脇さやか (弓削商船高専), 嶋田和孝, 遠藤勉 (九工大)
    優れたIT人材  ITに関する知識や技術を持ち、コミュニケーション能力がある  e-learningは基本的に一人で取り組むもの   孤独でモチベーション維持困難   うまく質問できない   →システムに質問しながらe-learningコンテンツに取り組む    学力向上+質問する力(決まり文句を身につけた上で) 発話理解は簡単なパターンマッチング(決まり文句を身につけさせるため意図的) 想定される質問の分析  システムが受け付けるもの→ヒントを与える  それ以外→受け付けない  対話の流れをモデル化 Q: 質問する時の決まり文句より、質問対象をどのように捉えて、どこを  聞こうとしているのかを明確にするところの方が大切な気もするが。  「動かないんですけど」「何が?何をどうやった?」とかそういう  意味では別セッションであった質問支援システムの方がやりたいことに  近いのかな。 会場Q: このシステムだと、仰れた通り質問する力は身に付くと思うが、  自分で調べる力を付けることにも考慮して欲しいと感じた。質問ですが、  ルールの生成にはどのぐらい時間がかかったか。全体のスクリプト。 A: 今回のは課題26個、小問題が各々2〜4つ。学生数人に取り組んでもらって  約2ヶ月。 会場Q: 直接人間が教えるよりもコストが低くなる方が望ましいと思うので、  省力化できるように考えた方が良いだろう。 A: スクリプトの自動生成を検討中。 会場Q: 限られた文しか認識できないとのことだが、その文は生徒には  示しているのか。 A: こういう質問したらいけるよといったアドバイスはしたが、  マニュアル提示まではしていない。 会場Q: マッチしない時に「受け付けていない」だけではユーザが頑張れないのでは。 A: 学生のアンケートで読み取りに式結果が余り良くなかったという意見はあった。  そこは良さそうなソフトを使うぐらいの話。認識誤りがあってもまだ  ポジティブに受け止められている。
    B4-3 共通状態と連結学習を用いたHMMによるコールセンタ対話の要約 (pp.920-923)
    ○東中竜一郎, 南泰浩, 西川仁, 堂坂浩二, 目黒豊美, 小橋川哲, 政瀧浩和, 吉岡理, 高橋敏, 菊井玄一郎 (NTT)
    コールセンタ対話  比較的短くくて120発話(一般に5分程度だが、1時間とかのもかなりある)  オペレータの振り返りが困難   監督者による業務内容把握が困難のため、改善に繋げられない  抜粋してどういう対話があったかが短時間で把握できる要約を生成したい   ルール生成型ではコストが高く、ポータビリティが低い アプローチ  自動学習  コールセンタ対話の特性を利用   量が大量   多くのドメインの対話を扱うことがある    故障受け付け、引っ越し、契約、、、(数十〜数百個)   各対話にはドメインラベルが付与済み   →各ドメインに特徴的な発話系列を抽出して要約生成 各発話にドメインラベルを付与し、該当ドメインに特徴的な発話のみを抽出  個々ドメインをモデル化→エルゴディックHMM   個々ドメインから学習したHMMを等確率で接続   そのままでは「確率が高い方」のみが選択   →全てのドメイン(ドメイン0)から学習したHMMも足してやる    しかし平均になるためほぼ利用されない    →連結学習の導入     ドメイン0+ドメイン1で再学習、ドメイン0+ドメイン2で再学習、、     を繰り返すことで連結学習。     再学習ではEMアルゴリズムにより、よく出現する発話の確率が高まる。     結果として、ドメイン0側では共通的な発話の出現確率が高まり、     選ばれる確率が上がる。      少ないデータからでも効率的に学習可能 Q: ドメイン別の学習をしつつ、全体としてどう組み合わせるかのバランスを  再学習という形で補うのは面白いと思うが、後からやるのではなく最初から  マルチクラスとしての学習をするのとどちらが効率&精度的に良いのだろう。 会場Q: (1)コールセンタのオペレータにとっての振り返りには良いが、  業務改善については繋がらないようにも感じた。改善に繋げるのに  どういう要約を検討しているか。  (2)発話シンボルに変換して学習するとのことだが、挨拶ぐらいの尤度だと  どのドメインでも変わらないように思う。どのぐらいの値か。 A: (1)直接的に改善に繋がるかは分からない。まずはブラウジングを  想定している。重要な部分のみを見つけやすくすることで間接的に  役立つと考えている。(2)発話シンボルは今は100にしている。  いくつか試した範囲ではこれが適当だった。 会場Q: 解約したいという場合にはどういうイベントなのかがマークされていたが、  実際に欲しいのは「どういう理由で解約したいと考えたのか」  といったところでは。そういうのも取れてくるのか。 A: 難しい。目的がおおよその発話内容を把握可能にすることなので、  特徴的なものが出てくるところまで。個々の詳細については、  その後の話で、今は入り口としての形を考えている。 会場Q: それだとカテゴライゼーションと同じに見える。 A: カテゴリではなく、客が満足したとかしてないといった場合に、  その対話の特徴を取れるという可能性がある。もう少し工夫が必要だとは  考えている。
    B4-4 コールメモを利用したコールセンタ向け音声対話要約方式の提案 (pp.924-927)
    ○田村晃裕, 石川開 (NEC)
    コンパクトな要約テキスト(音声)のニーズが高い  アブストラクト型/抜粋型  教師データの有無  →教師データを使用しない、抜粋型要約   tfidf法:業務上必要箇所と一致しない。頻出する要件が含まれない。口癖が含まれる。 コールセンタのニーズにあった要約生成  蓄積されたコールメモを利用し、要約に含める。  使い方に工夫が必要   ベースライン:MF法(出現頻度が高い箇所を抽出)    通話とコールメモでの表現の不一致を考慮できない   提案手法:AS法    通話とコールメモの単語の相関を用いて表現不一致問題を解決    各単語の重要度=同一内容らしさ*コールメモにおける重要度   不要発話削除の導入    「はい」「えー」「○○コールセンタです」    発話出現頻度が閾値以上の発話 Q: 抽出したい「重要語やそれを含む文」にもケース次第で大きく異なる  というのは面白い。汎用的にパラメタライズで「こういうケースの重要語」  というのを抽出しやすくできたりするのかしら。 会場Q: 二つの軸でindicative/informativeとのことだが、同じものに対して  2軸で評価した? A: infomativeは通話内容を漏れなく含む要約で、60%ぐらいに圧縮されたもの。 会場Q: F値が0.5ぐらいというのは、どのぐらい良いと思うのか。直感で。 A: 書き起こしに対して0.5ぐらいだが、実用に堪えうるかなというレベル。  音声認識誤りが含まれると、誤りを含む形で要約してしまうため対応が必要。 会場Q: 書き起こしを使うというのは実用としては考え難く、それぐらいなら  コールメモが良い。如何に精度を上げていくか。音声認識誤りの対策として  どういうことを考えているか。 A: 音声認識結果を良くしようというスタンスではない。誤りが含まれた  要約テキストを見せてしまうと分かりづらいので、音声を聞くことで  要約されたテキストの音声を聞くことで人間側で補正できるかなと考えている。 会場Q: 音声認識の精度はどのぐらいなのか考えてないとのことだが、  仮に100%だとした場合の評価があれば。 A: そのつもりで書き起こしで評価を行った。
    B4-5 Toward Plan Recognition in Discourse Using Large-Scale Lexical Resources (pp.928-931)
    ○Naoya Inoue (東北大/学振), Kentaro Inui (東北大)
    談話の背後には登場人物の目的達成のためのプランがある そのプラン(goal-means tree)を文章から自動的に生成する 談話解析には世界知識が必要だが、昔は利用できるものが殆どなく、 研究としては廃れてきた  今ではFrameNet, WordNet等の大規模な世界知識が利用できるようになってきた  →やってみよう! プラン推論のモデル  談話から合理的な説明を求める→説明から目的/手段の関係を抽出  説明を求めるとは   仮説推論 abductive inference    背景知識Bと観測Oから最小の仮説Hを求める推論    細小にも色々ある:ここでは可能な仮説の中でリテラルが最小のもの   →知識ベースに目的/手段関係も埋め込み、推論できるように工夫 知識ベース  既存の知識を変換したもの   同義語、上位下位等:数百万オーダー   極性知識:数万オーダー  人手でエンコードしたメタ・ナレッジ   一般的な知識 知識ベース充足性の確認実験  人手で同定した仮説推論まで辿り着けるか、推論パスを埋めることができるか  77.4%のアクションに対して埋めることが出来た   そのうち半分はメタ・ナレッジを使う必要あり  失敗例の多くは固有知識が不足(カビキラーは何のために使うのか) 語彙知識はそれをどう使うかを考える段階であって、既に十分にある。 推論ルールが重要な役割を果たしていた Q: メタ・ナレッジ部分が結構効いているようだけど、この部分はどのぐらい  質・量を用意したらどのぐらいの精度が出るか、といった目安はあるの  かな。他との兼ね合いだというのは分かるけど、応用した結果を評価する  のではなく、知識ベースそのものを評価するという意味で。 会場Q: 計算量はどれぐらい? A: 仮説推論をやって、最小仮説推論求めるのはNP-hard。 会場Q: 今後どういう方向を考えている? A: 将来は重み付きabductionがあり、それを考慮しつつ自動化していきたいと  考えている。 会場Q: ドキュメントはどんな文?ドメイン的な意味で。 A: 家事。 会場Q: 足りない知識は、ドメイン依存だと思う。こういう知識が  足りているのかという意味でいろんなドメインを試してみる必要が無いか。 A: 固有名詞に対する知識が足りていない。様々なドメインで出てくるだろう。  どんなドメインでやるにせよ獲得する必要あり。 会場Q: 正しくない解釈が得られる可能性もありそうだが。 A: 今回は別の問題として考えていて、今回は正しい説明が入ってくるかを  考えていた。正しくない候補が入ってくる可能性はでてくると思う。 会場Q: より小さくて、正しくない候補が入る可能性。 A: 確認してみたいと思う。
    B4-6 視線情報を利用した協調作業対話における参照解析 (pp.932-935)
    ○安原正晃, 飯田龍, 徳永健伸 (東工大)
    人間と協調作業を行うシステム  参照表現:参照解析+参照表現生成  対象は参照解析(視線情報)   人間が無意識に生み出す情報のため負担が少ない 参照表現コーパス  協調作業対話コーパス:参照表現に人手でアノテーション   発話テキスト、ピースやマウスの位置など 参照解析手法  特徴ベクトル→ランキング・モデル   素性:談話履歴情報10個+オンマウス情報6個+操作履歴情報6個+視線情報6個   注視:100ms以上留まった場合。連続した視線位置の重心。   抽出区間毎に3つの素性を計算   予稿集には結果に誤りがあり、より高いスコアが出た Q: オンマウス情報使ってるなら視線情報要らないんじゃと思ったけど、  何故精度改善に貢献したのだろう。数値化することにトリックがあるのかな。 会場Q: 視線情報とオンマウス情報は近いように思うが、どのぐらい一致するか。  改善したということはオンマウス情報より情報量が多いようにも思えるが、  履歴の有無が関係しているのか。 A: (1)視線情報とオンマウス情報の違いについてはまだ未解析。(2)オンマウス  情報には履歴が効いていなかったのではという点ついては、  それらを用いない場合でも殆ど精度が変わらない。 会場Q: 代名詞の場合は下がりますよね。代名詞の時と非代名詞の時の違いが面白い。 会場Q: 視線情報はどのぐらいの区間や時間で参照したら良いのか。  広過ぎてもピンポイント過ぎても扱いが困難だと思うが。 A: 今回は決めうち区間で試した。1300msとしたのは、  平均して高いスコアが出る区間だったため。
    B4-7 直接照応解析における分野情報および文脈情報の有効性検証 (pp.936-939)
    ○浜田伸一郎, 齋藤佳美 (東芝ソリューション)
    直接照応解析  ある談話要素が指す、同一の事物や意味を持つ、他の要素を推定する技術   先行詞->照応詞  曖昧な語を具体的な語に置換したい(例えば要約)   直接法/全体法:両者とも欠点   表層一致ペア/表層不一致ペア    語彙分布は類似    語彙的関係は異なる    割合は:一致ペアは70%、不一致ペアは30%程度の差    →混合法     直接法同様、表層不一致ペアの解決が目的     ただし語彙分布の特徴で補完 表層一致ペア→表層不一致ペア  転移学習+表層一致ペアで用いられた語の頻度利用  文脈的素性:表層・意味が一致する近傍の表層一致ペア数  →両者とも改善に寄与 Q: TLみたいな「他人のツイートや話題」に対する照応みたいなところにも  使えるのだろうか。 会場Q: 効果のなかった素性はあったか? A: 今回提案した素性以外は標準的なものを用いて、  試した範囲では比較的有効であった。 会場Q: 要約に使えるという例は分かりやすかったが、  新聞記事にやるという場合でも同じ問題になるのか、差があるのか。 A: これは新聞記事の例で、同じ。 会場Q: 今後の部分一致しているのとしていないのとでどれぐらいの差があるのか。 A: 機械学習の重みとしては表層部分一致は結構重みが大きく、有効だと思う。 会場Q: 部分文字列で失敗するケースでは、ある程度予測がつくと思うが、  それは素性では含まれているか? A: 例えば表層が同じでも意味が違う場合には、意味の所で棄却できると思う。 会場Q: 意味素性でも同じでは? A: 意味素性では異なる。
    A5:教育応用
    3月10日(木) 15:50-18:20 A1-101教室  座長: 田中久美子 (東大)
    A5-1 学習指導要領に立脚した児童作文自動点検システムの実現 (pp.1045-1046)
    ○藤田彬, 田村直良 (横浜国大)
    文章の自動評価が必要となる場面が年々増加する見込み  記述式を含むe-learning/小論文試験/作文指導  労力的な問題  評価基準が安定しない 自動評価  要約の評価はあるが文そのものの(日本語は)評価はあまりない  e-rater: 重回帰モデルで採点  Jess: 理想小論文を手本とする方式 学習指導要領の指導事項のモデル化  指導事項の分類   「B:書くこと」の「構成」と「記述」   点検:不適切と思われる箇所をマーキング(修正まではやらない)   独自分類:構文/結束構造/修辞・構成/モダリティ/etc.  教師による点検事例の解析  点検モデルの構築 Q: 絶対的な基準として学習指導要領を上げていたけど、そこからモデリング  (独自分類)している時点で「モデル者の主観」が入り込んでる気がする  のだけど、大丈夫なのかな。 会場Q: 作文データを入力して指導要領に合致する/しないのエンジン部分が  最も困難な箇所だと思うが、どう考えているか。 A: 既にあるシステムという点では、文法的な語彙チェックは例がある。  文章の構造構成を採点するというところが大きいが、ここに関しては未検討。 会場Q: (1)児童作文対象だと綺麗じゃない文だらけで、形態素解析だけでも  かなり大変だと思う。(2)自動点検ではなく、本当に間違ってて指摘すると  大変だと思うので、その前に先生が見る時にアシストするシステムを考え、  そこから次に進むと良いのでは。 A: (1)作文点検する前に、助詞誤用等は洗い出した上で、利用を想定している。 会場Q: 提案だが、作文授業で起こりそうな例として、一部の生徒が何も手が  進まない。児童生徒が書いたものがあって初めてシステムが動くようだが、  何も書けない状態の児童をどう支援できるかという点も検討されては。 A: 実際その通りだと思う。 会場Q: 対象が小学生の作文とのことだが、小学生にPC使って作文させると  不感になると思う。実際に書くことが大事では。 A: 仰る通りだと思う。一番良いのは余り綺麗ではない文字でもそれを  認識するシステムがあると嬉しい。 会場Q: 児童の書いた作文を機械が採点する/点検するということで良いのか。  教師をアシストするのがあるべき一つの所かなと思う。あれもこれもやりたい  ではなく、実際の教育現場で機能するのは何か、を考えては。 A: ありがとうございます。 会場Q: 作文教育のe-learning事例だと思うが、e-learningを考えると  何も考えずにデータが蓄積され、それを利用することが有効にはならないか。 A: 個人個人の傾向掴めたら良いなと思う。
    A5-2 非日本語母国話者の作成するシステム開発文書を対象とした助詞の誤用判定 (pp.1047-1050)
    ○大木環美, 大山浩美 (NAIST), 北内啓, 末永高志 (NTT), 松本裕治 (NAIST)
    仕様書の品質向上が必要  ツールによる自動化支援  チェックすべき事項の調査   修正前後の文書セット   誤り割合:文法52%、語句26%、、   →助詞の誤用判定 機械学習による誤用判定+素性改善  対象文書:非母国語話者の仕様書  素性生成手順   基本:形態素解析&構文解析+固有表現正規化+助詞前後3単語の原形+係先 4つの改善案  助詞が不要な箇所を判定するための学習事例がない  →全体として悪化しないよう、出現しないであろう箇所のみ学習事例を追加  原型しか使っていないため違いが判定できないことがある  →単語の活用形情報追加  素性列がスパースになりやすい  →単語と品詞を独立の素性として扱う  前後3単語と係先以外の有用な情報が素性に反映されない  →同じかかり先を持つ助詞の追加   実験より全組み合わせ時が最も良い精度を示した Q: 招待講演で話題があった「企業毎のガイドライン」と比較してどちらが  より優先順位が高いのだろう。そもそも開発も海外にやらせるなら仕様書  を日本語で書かせることの意味が良く分からないというのもあるけど。 会場Q: データについて。中国人技術者の書いた仕様書のようだが、清書する  ことがあるのだが、日本語能力試験でN1レベルとN2レベルがあって、  英検1級2級ぐらいの差がある。もともとどのぐらいの日本語入力レベル  の人が書いたかによって変わらないか。 A: そこは調査は行えていない。それなりに幅があるということは聞いている。  他の研究例でもあるが、日本語能力が高い方については余り間違えないので  誤用判定しても「正しいものを誤検出した」という話があるとのこと。  今後検討したい。 会場Q: 前提のエラータイプについて。翻訳の関係で実際に営業でクライアント  と話すと、気持ち的に耐えうるものとそうじゃないものがある。安ければ  良いレベルというのがあるらしい。助詞エラーの中で、クリティカルなものと、  そうでないものがどれぐらいあって、どれぐらい対処できたのか。 A: その問題は起きており、70%ぐらいはなおした方が良いだろうというもの。  30%ぐらいは好みの問題レベル。そこは誰が書き直すかが問題になる。  ただし仕様書としては統一した用い方をした方が良い。仕様書の品質を  高めるという目的のため、誤用として扱っている。
    A5-3 翻訳教育向け「みんなの翻訳」 (pp.1051-1054)
    ○影浦峡 (東大), Thomas, Martin (Leeds大), 阿辺川武 (NII), 内山将夫, 隅田英一郎 (NICT), Hartley, Anthony (Leeds大)
    翻訳教育  現場では教員にまかされており、やり取りやログが共有されていない  過去の記録を活用できていない  →やり取りの体系化   「みんなの翻訳」は自立した翻訳者・グループ向け   基本的に自分でやろうとする初心者向け   →よりきめ細かい対応 共同翻訳プロジェクト →関与する要素とプロセスの定義を洗い出し  複数の人が関わり、比較的複雑な会話セッション   テキストエンティティ:文書集合/個別文書/テキストスパン   参加者の役割:翻訳者/修正訳者/レビュア/アドバイザ/ターミノロジスト   やりとりのタイプ(仮):要求/通知/説明/解決/激励/感謝  やり取りを作業プロセスに位置づける   文書集合レベルを巡るやり取り   個別文書レベルについてのやり取り   テキストスパンをめぐるやりとり   →まだバランスが良く分からず    教育目的としてはある程度統制した方が良いが、    統制し過ぎても教育効果が薄れる等、要検討が必要。 翻訳教育向け「みんなの翻訳」は2011年7月に公開予定 Q: ユーザビリティとかではなく、統制バランスが教育効果にも影響を及ぼす  というのは考えたことが無かった点。うまく評価する方法があるのか、  そもそも利用者のレベルによっても異なりそう等現場でカスタマイズ  せざるを得ない部分も少なくないのかな。 会場Q: (1)ブロックで翻訳の修正等議論が行われいるようだが、議論結果を  共有する仕組みはあるのか。(2)作業者の問題で、修正翻訳をする人/チェックを  する人を必ず用意する必要があるようだが、対象言語力が無いと人員確保の  問題が無いか。 A: (1)修正カテゴリタイプでコントロールした上で、インスタンスをまとめる。  それ以降については言語処理的なメカニズムでフリー記述・討論を  まとめられると、半分自動化できることを期待している。  (2)リバイザは原文を見て修正する。レビュワーは翻訳された対象文だけを  みて修正する。翻訳教育の現場では必ず全ての役割と異なる人がやる必要  はない。関わった方が教育効果が高いというのもある。役割分だけ異なる人を  準備する必要は無い。日本とは異なる事情として、欧州ではかなり学生数が  多いためそこは問題になり難い。 会場Q: このシステムは、学校に配布して教室の中で、その場で使う?オンライン? A: その場に居て使うシステムとして設計している。 会場用Q: ペアプログラミングというのがあるが、それを如何にシステムで  補助するかという話がある。 A: 参考にしたいと思う。
    A5-4 Stativity判定に基づいた時制誤り検出 (pp.1055-1058)
    ○永田亮 (甲南大), Vera Sheinman (教育測定研究所)
    シンプルな方法:コーパスから現在/過去/未来を判定する分類器を構築  困難  →Statiity判定する分類器を構築 発音してみよう  I read the book.→過去を示す表層情報は無いのにレッドと発音  何かが隠れているのでは?  →Stativity: 動詞の分類   動作動詞/状態動詞   動作動詞:現在の動作に対して単純現在を使用することは制限を受ける  単純現在の動詞抽出   動作動詞なら時制誤り   →どうやってStativity情報得るか?   →単純なif-thenで決めうちして良いのか? コーパス→学習データを人手で作成
 Stativity判定を行うME分類器   動詞毎に分類器を作成  現在形で使用できる動作動詞   習慣的動作/一般的真理/未来の確定した予定/「時」「条件」を表す副詞節中  →先行研究と比較して検出率&検出精度共に高い(6割弱) Q: 実は例文で「リードとは読まない」というのが納得できていなかったのだけど、  制限を受けるだけで可能性がゼロだという話ではないということでやや納得。  ただ、その例外規定がこれで十分なのかが良く分からず。実際問題としては、  結果見る限りは「これで多数は問題無い」ということらしいけど、  まだ検証例が少ないだけじゃないのかな。 会場Q: Stativityという概念が効果があるというのは直感的にも分かる気が  するが、分類問題では置き換えただけになっていないか。うまくいかな  かった方は3値分類でやっている。 A: 1分類としてやればできるという可能性もあるが、まだやれていない。 会場Q: 時制誤りについて、副文で時制一致がいる例というのはどういうのがあるのか。 A: 主となる動詞と副文となる動詞は、そんなに強い制約ではないと考えている。  ただ、よりうまくなるケースとしては使えると思う。 会場Q: Stativityを現在/過去に置き換えると同じ問題になるような気がしている。  前後3単語でME決定していたが、人間がやるとどのぐらいなのか。 A: 一般の新聞だと分からないが、教育用問題では典型的な用法が多く、  それについては迷うことは無い。分からなくて除外したものもいくつかある。  アノテーションは一人でやってしまった。 会場Q: 書き手に何かフィードバックをかけることは可能なのか。 A: どこが違うよと示すだけでも役立つと思う。具体的なところはこれから考えたい。
    A5-6 最大クリーク探索に基づく特許検索履歴の統合 (pp.1059-1062)
    ○乾孝司 (筑波大), 難波英嗣 (広島市立大), 橋本泰一, 藤井敦, 岩山真 (東工大), 橋田浩一 (産総研)
    特許に関連した先行技術調査 先行技術調査における集合知の循環  →先行技術調査の生産性を持続的に高める   注釈や検索履歴を循環させて利用するために辞書作成    今回は履歴&検索質問からどう辞書を作るかについて 入力支援:OR質問 辞書構築:関連語辞書 検索はAND/ORを組み合わせるが、OR質問への入力を支援  例:(半角Web+全角Web+ウェブ) * サービス    (A+B+C)*(D+E)    頑張ってやる部分、連想をサポート  シソーラスでは概念粒度の違い、良く分からないものがあり、サポートしづらい  →蓄積される履歴を利用 検索意図により「関連」の意味合いが異なる  観点に基づく構造化   例:観点1(認証:画像、指紋、)、観点2(音:音楽、サウンド、、) IPCCで行われている方法
 OR部分の共通性に基づく統合・登録処理を繰り返すことで関連語を増やす  履歴と共通部分が多いなら加える  どの検索者が入力した履歴かを問わないため、ノイズになる可能性。  →さらに他検索履歴も参照し、エビデンスを確保(履歴中でOR結合している場合だけ登録)。   IPCC法はincremental、エビデンス利用だとbatch処理   →履歴情報を単語グラフ表現+最大クリーク探索(極大クリーク列挙) Q: データをグラフ化→最大クリーク探索という問題への落とし込み方が面白い。  観点をどう求めるかは良く分からなかった(クリーク=観点?)けど、  条件緩めることでいろんなことに応用が利きそう。 会場Q: クリークを使った利点を教えて欲しい。普通なら確率とかでも良さそうだが。 A: 元々の問題設定としては、クリークを見つけないと制約を満たせない。  確率的なやり方もあるかもしれないが、今回は見つけていない。 会場Q: 完全クリークのみ? A: 擬似的なクリークは取っていない。ただし、若干観点を分け過ぎている  ようにも見えるので、制約が強すぎるかもしれない。
    A5-7 テレビスポーツ番組におけるリアルタイム字幕の特徴 (pp.1063-1066)
    ○福島孝博 (追手門学院大)
    テレビ番組の字幕  Open vs. Closed Captions  生でない番組への字幕:ほとんど付与  総務省方針:2017年度までに生番組まで拡大  典型例としてスポーツ番組   サッカー:4名登場(実況アナウンサー、解説者2名、ピッチレポーター)   大相撲:3名登場(館内アナウンス、呼び出しはもともと字幕対象外)  字幕   1,2行30字程度   話者を色分けする傾向 固有名詞  基本的に省略せずフルネーム  サッカー:海外選手は文字数多いためか、字幕として生成されないことが多い  大相撲:字幕者にもよるが、発話以上に名前が生成されることが多い 発話速度  サッカー:発話が早い、字幕が出ていない時間帯あり(追いついていない)  大相撲:比較的ゆっくり、一部で要約率1.0を越える(リスピーク方式) 字幕の問題点「泣き別れ」  「青いユ」「ニホーム」   サッカーにて8回、大相撲で0回 今後  情報保証のためのテレビ字幕のあり方を明らかにする オーストラリアの例  ノーマルタイプとヒアリングタイプを選択できる(差は良く分からなかったが) Q: 米国だとかなりがっちりリアルタイムでもタイプしまくられているよう  だけど、そっちでは情報保証をどう考えているのかな。あと、そもそも  文字だとなかなか理解できないケースもあるらしいので、よりリッチな  サポート方法というのはまだまだ考える余地が数多く手つかずになって  いるのかもしれない。 会場Q: ワンセグで字幕見てると納得いく話で、興味があるのは聴覚障害者  への要約費。健常者と一緒に授業受けたいとか。TVに絞っている理由や、  他への応用について何かあれば。 A: 聴覚障害者への情報保証の話をするといろいろあるが、TVならTVでの制限  などを考えていく必要がある。どういう字幕ができるかという点で調べている  段階。情報保証としての字幕であるべきで、人権問題にも関わってくる  デジタル時代の対応問題。リアルタイム番組におけるあるべき姿を模索している。 会場Q: 現状のTV字幕で遅延時間については何か調査結果があるか。 A: TV局に聞くと良いと思うが、ある程度以上遅れてはいけないという  ガイドラインがある。サッカーでは完全に遅れている。ある程度の時間で  区切って出している。

    NLP2011, 本会議2日目終了(セッションB2: Twitterと言語処理)

    水曜日, 3月 9th, 2011

    NLP2011、本会議2日目(一般講演セッション1つ+招待講演1つ+特別講演1つ+ポスターセッション1つ)。

    目標だけでなくアプローチも手段も多岐にわたる話が多くて脳みそが崩壊しそう。ブログにまとめた分だけでも後でKJ法するだけでもかなりの知識が必要になりそうだ。まだ大会途中だけど、やっぱり参加して良かった。

    ということで、以下、本会議2日目のメモです。

    目次
    B2: Twitterと言語処理
     ・Wikipediaのカテゴリ階層を利用したTwitterユーザのカテゴライズ手法
     ・マイクロブログの分析に基づくユーザの嗜好とタイミングを考慮した情報推薦手法の提案
     ・Twitterからの個人の行動に起因するトラブル予測システムの試作
     ・マイクロブログサービスの返信行動に着目した投稿及びユーザの分類
     ・Twitterユーザの属性判別によるスポーツ映像の自動要約
     ・Twitterにおけるつぶやきの関連性を考慮した改良相関ルール抽出による話題抽出
     ・パネル討論: 各パネリストによるショートプレゼン+討論お題+会場質疑応答という構成
      ・Twitter連携サービスの変遷: 横田 真俊(Twitter解説書著者)
      ・TwitterのStreaming APIを使ってネタ集め: 辻村 浩(沖電気工業株式会社)
      ・ソーシャルセンサーとしてのTwitter: 榊 剛史(東京大学)
      ・自然言語処理屋から見たTwitter: 岡野原 大輔(PFI)
      ・「ツイちぇき!」開発における取り組みと課題: 大角 知孝((NTTコミュニケーションズ株式会社)
      ・お題1:Twitterは他の言語処理と比べて何が違うのか。
      ・お題2:Twitter情報活用したサービスは色々ある。それらにおける課題や注意点。
      ・お題3:今後期待されるようなサービス/技術。どういうアプローチが面白そうか。
      ・会場質疑応答
    招待講演2: 「実務翻訳の現状と未来」講演者 田中千鶴香 氏(日本翻訳連盟理事・日本語標準スタイルガイド検討委員長)
    特別講演: 「表現から意味へ:言語処理技術と言語の科学」講演者 辻井潤一 氏(東京大学大学院,マンチェスター大学教授,英国・国立テキストマイニングセンター 研究担当ディレクター)
    P3: ポスター(3)

    
    
    
    

    B2:テーマセッション4: Twitterと言語処理

    B2-1 Wikipediaのカテゴリ階層を利用したTwitterユーザのカテゴライズ手法 (pp.448-451)
    ○放地宏佳, 鶴田雅信, 酒井浩之, 増山繁 (豊橋技科大)
    ユーザ推薦のために公式用意されたカテゴリ数は8種類。 母数と比較してあまりにも少ない→客観的な判断に基づいたユーザ分類 発現内容に基づくカテゴライズ  新語が多く形態素解析困難  既存シソーラスでもカテゴライズ困難  →Wikipedia利用してカテゴライズ 特徴誤抽出のための前処理  ユーザ名除去  RT,QT以降の文除去  ハッシュタグ除去  文字表記法法の統一「は”」→「ば」 Q: 違和感を感じたのはツイート分類かユーザ分類かが混ざっているのか。  人自体が多面性持ってるし、移り変わるものでもあるし。ツイート分類  して時系列的にユーザ分類するのが良いのかしら。 会場Q: カテゴリを辿って近いパスといったが、共通カテゴリへの最小パス? A: 特徴語から近い方。 会場Q: 閾値から2以上というのは2未満の誤り? A: 最上位カテゴリと特徴語があり、数式では最上位カテゴリからの値。 会場Q: Wikipedia中リンクのアンカー名とタイトルとの関係を使うと  より頑健な抽出ができると思う。 会場Q: ユーザ20名はどうやって選んだ? A: Streaming API から取得した日本人からランダム抽出。 会場Q: ユーザによってカテゴリのしやすさもあると思う。 会場Q: 複数のことに興味があってまたがったツイートをしている人も  いると思う。特徴語から共通カテゴリを取るとかなり上位のカテゴリ  が取られてしまい変なことにならないか。 A: 1ユーザについて全部をまとめて共通カテゴリを作るわけではなく、  複数カテゴリが付与される。閾値調整であまり上位過ぎないように調整する。
    B2-2 マイクロブログの分析に基づくユーザの嗜好とタイミングを考慮した情報推薦手法の提案 (pp.452-455)
    ○向井友宏, 黒澤義明, 目良和也, 竹澤寿幸 (広島市立大)
    Twitter「リスト」の名前からユーザの属性を判別&特徴誤抽出。 必ずしも嗜好情報を表しているとは言えない。 「お気に入り」は嗜好情報含むが、あまり利用されていない。 →「リツイート」を利用。  全ツイート使うよりもクラスタリング結果は良質に見える。 リツイート中の名詞を利用。  表記揺れ→Wikipediaカテゴリ情報  意外性のある推薦 バースト+極性評価(ネガティブ時は推薦しない)  仮定:推薦が受け入れられやすいタイミング Q: favtterとかある程度整理されたのを後から見るケースも増えてきてる  ので、リアルタイム性が必ずしも高いとはいえないのかも。 Q: (そもそもツイートに反応するボット的な推薦は受け入れられるのだ  ろうか。ボット的な推薦なのかは分からないけど) 会場Q: ネガポジ判定に「ヒット」といった言葉で決まってしまうとのこと  だが、野球でも攻守によって異なる。その対応はできるのか。 A: ツイートの流れを追う事によって判別できると思う。 会場Q: (1)リツイートを対象にした時と全ツイートを対象にしたときとで  どのような差が見られたのか。リツイートは情報が高かったものを広める  役割で、嗜好を表しているというのも何となく分かるが、クラスタリング  されているか否かと嗜好を表しているか否かは一致していないように思う。  (2)タイミングで高揚している時に出すというのは面白いともうが、  実際やってみてどうだったのか。 A: (1)ユーザ毎にプロファイリングした結果、全ツイートを用いると特徴的  な語が取得し難い。  (2)タイミングについては、評価実験はまだ行えていない。 会場Q: クラスタリングの評価について、直感的にやったのか、  客観的にやられたのか。 A: 成功している/いないについては直感。具体的な尺度は無い。 会場Q: クラスタリングすることで意外性のある情報推薦ができると考えた理由は? A: 異なるユーザの特徴語に共通点が多く、異なる特徴語があり、  カテゴリ的に上位で共通していれば意外性があると考えた。
    B2-3 Twitterからの個人の行動に起因するトラブル予測システムの試作 (pp.456-459)
    ○隅田飛鳥, 服部元, 小野智弘 (KDDI)
    ユーザのログから特定トラブルが発生する可能性が高いか否かを判定したい。 例:健康管理システム(肥満) 個人の行為・状態の積み重ねを原因とするトラブルに限定  地震とかサーバダウンは対象外  因果関係を用いた予測  時間関係も加味して要因を認識する必要がある 原因候補の抽出+グルーピング  名詞の上位下位関係、動詞の含意関係 時間情報を考慮してトラブル発生しやすさを機械学習してスコア付け  素性:単語そのもの+周期性+原因候補の書き込み時刻+周期の変化 Q: メタボとか複数要因(食事、運動等)が絡むようなのは、  今の所考慮しないということか。 会場Q: 評価について。「風邪」から「風邪」は分かりやすいが、  「風邪引きそう」はトラブルとしては除外? A: 除外。 会場Q: ニーズについて。ユーザが使う時に嬉しいのかどうか。  どう説明するのか、役に立つと示すのか。 A: 実証実験を行いたいと思うが、まだそこに至っていない。  精度高くしないと実用には厳しい。 会場Q: 表現語の選択はどうやっている? A: 「風邪」を必ず含む後にしているので、限定し過ぎているかもしれない。 会場Q: 「太った」というのが「トラブル表現」とのことだが、  太るというのは急激に発生するわけではなく徐々になる。  トラブルとしてはどう書くのか。 A: 例としては「体重計のったら太っちゃった」とか書かれる。  それを「太る→太った」と表現した。 会場Q: 警告をすると言ったことを考えている? この時に太ることを  覚悟していることもあると思うが、どう考えているか。 A: トラブルの選択については考える必要があると思う。
    B2-4 マイクロブログサービスの返信行動に着目した投稿及びユーザの分類 (pp.460-463)
    ○黒澤義明, 竹澤寿幸 (広島市立大)
    フォローしやすい→増え過ぎて大変→要選択  親密度(?)を返信行動「投稿の繋がり」で分類  名詞だけでは無関係→Wikipedia辞書でカテゴリ同一 カテゴリ化  Wikipediaでカテゴリ情報抽出(2段階) 双方への配分  ペット:3×α (3倍して重み調整)  ツイッター文長自体が短いので、複合して情報量upを期待 クラスタリング  pLSA, SOM Q: ツイート文長が短くて情報量少ないという点を「カテゴリ名」を  「3倍+重み調整」するというのが相対的のどのぐらい効果が出そう  なのか良く分からない Q: TL検索して垣根を越えて人を見つけやすくなってるだけでも十分  だとも思うけど、コミュニティ単位での検出という意味ではそれが  嬉しい場面もありそう。ハッシュタグもそうだし。 会場Q: クラスタリングで、学部が一致すべきかどうかが良く分からない。 A: 課題でも述べたが、学年の進行に伴い変わるものだし、学部の中でも  仲が良いとは限らない。もう少し細かいクラスタでやりたいが、  細かい情報が載せられてないためアンバランスな面がある。 会場Q: セレンディピティという話もあるようだが、最終的な目的は? A: 全ツイートを見るわけにはいかないので、興味のあるツイートを提示  したい。興味通りの所を提案するだけだと飽きるので、新たな友達を  発見するツール等を考えている。 会場Q: 返信内容に含まれる単語を使ってクラスタリングしているよう  だが、単純に考えると返信し合っている人は同じくラスタに入りやすい。  それだけだとフォロー関係使っても同じものを得られそう。それ以上の  ものが取れているのかどうか。 A: 直接比較はできていないが、フォロー関係については別途やっており  合体/比較していきたい。 会場Q: 評価の方法として、ツイッターで作られるコミュニティと  現実生活コミュニティが同じであると仮定していると考えている? A: その通り。 会場Q: それをネットで発見する意義は? A: 友達作りが下手という話も良くきくようになった。  実際あるコミュニティを知らない場合に、チャンスが広がると考えている。
    B2-5 Twitterユーザの属性判別によるスポーツ映像の自動要約 (pp.464-467)
    ○小林尊志, 野田雅文, 出口大輔 (名大), 高橋友和 (岐阜聖徳学園大), 井手一郎, 村瀬洋 (名大)
    膨大な放送映像を効率的に閲覧する技術が必要 視聴者の視点による重要なシーン検出  盛り上がり(歓声/実況チャット)を利用 実況書き込み  属性評価辞書で投稿者の属性判別   「どちらのチームを応援する文脈に現れやすいか」   チームを応援するハッシュタグ  要約映像の生成   同一チームを応援する投稿者の書き込みかr亜盛り上がり度を算出 Q: バイアスを気にするというよりそれが気にならないぐらいに  高バイアスしちゃうよ!というように見える。 Q: ツイートタイミングと映像タイミングとでの時間差は  何かしら一意にアライメントできるのかしら。 会場Q: 中日ファンの例を見たが、ロッテファンではどうなるのか、違いは? A: 試合内容と展開によって大きく異なる。この例では大差で負ける。  この場合、買ってる方は「相手の得点」でも盛り上がる。 会場Q: 巨人/横浜だった場合、巨人ファンが多すぎるといったことがある  と思うが、問題にならないか。 A: 単語数を一致するように設定していることで調整できた。 会場Q: 2chの実況版とかあるが、それを利用することはできないか。 A: 匿名性があり、どのユーザがどの書き込みをしたかというのが得難い。  Twitterに特価した手法。 会場Q: (1)ユーザの立場が分かるというのは面白い。偏りがあるというのは  良いが、日本と別の国となると片方の立場で映像出さないといけない、  majorityになるような場合にどうなるのか。(2)評価について、立場を  評価せずにTwitter盛り上がりだけを見た時にどうだったか。 A: (1)明らかに偏りがありすぎる場合には、基本的には属性判別困難。  単語に隔たりが出てくると可能性はあると思う。  (2)実際の書き込み件数だけでいくのと比較すると、2シーンはとれた。  他は立場を考慮しないと取れなかった。
    B2-6 Twitterにおけるつぶやきの関連性を考慮した改良相関ルール抽出による話題抽出 (pp.468-471)
    ○鈴木啓太, 新美礼彦 (未来大)
    最新の話題を収集し続けるのは困難→話題抽出 Googleトレンド/kizasi.jp  何故話題になっているのか、どう使われているのかは分からない。  →話題を類推できる情報を提示したい 類推ワード  トピックワード:相関ルール抽出で生成   結論部にトピックワードを持つルール  関連文書:類推ワードと集めた文書から生成 Q: 昨日のポスターセッションであった「ページに何が書かれているかを  示す記述用語」みたいな話かしら。 会場Q: 相関ルール抽出で語彙を増やしたとのことだが、類義語とか  他の方法とは違う効果が得られるのか。この方法に着目した理由は。 A: 相関ルール抽出しか知らなかったというのが大きく、  他の手法と比べてというのは無い。 会場Q: 具体的にどういう目的でやっている? A: 類推ワードと関連文書を抽出し、Twitter呟きを使うことで日々  生まれている単語/略語を類推できるような文書を抽出すること。 会場Q: kizasiみたいなもの? A: その通り。
    B2: テーマセッション4: Twitterと言語処理: パネル討論 最新情報や開発ノウハウについて。 ハッシュタグ: #twitterconf  togetter: 言語処理学会第17回年次大会-パネル討論[B2-6]Twitter情報を活用したサービスの現状と課題 Twitter研究会  Twitter, Ust, ATND 以下、  ・パネリストによる数分プレゼン  ・討論お題  ・会場質疑応答 の3部構成。
    >横田 真俊(Twitter解説書著者) @Wslash Twitter連携サービスの変遷  BOTの時代   今日は何の日?   並の人間よりもBOTの方がフォローされる  ランキングの時代   ふぁぼったー、トゥギャッター、バズッター  Daily meの時代   デイリー enews   paper.li、Flipboardなど
    >辻村 浩(沖電気工業株式会社) @tsupo TwitterのStreaming APIを使ってネタ集め  public_timeline, private_timeline 取り扱いに注意が必要   原則として public 使おう  ログ保存機能のあるTwitterクライアントでひたすら収集   Tween, Shiro, Chirrup,,,   Twitter IRC gateway(TIG)経由でIRCクライアントの利用も  REST APIには時間当りの発行回数制限あり   ホワイトリスト登録申請はなくなる方向  Streaming API   firehose: Twitter社と契約必要(法人のみ)   sample: 契約不要(10~15%に間引きされたもの)   filter: 契約次第。検索条件に合致するもののみ取得したいとき。  参考: FaceBookの場合   public_timeline に相当するものは無い   基本公開された情報でもないので取り扱い注意
    >榊 剛史(東京大学) @tksakaki ソーシャルセンサーとしてのTwitter  Twitterにおける「今」と「どこ」の重要性  実社会を観測するソーシャルセンサー   トレンド・ニュース分析    ツイちぇき!、Buzztter、、   評判分析    クチコミ係長、TweetFeel、、、     情報伝搬分析  ユーザー影響力分析  自然現象等の観測   カゼミル   (終了)みんなの花粉症なう!β  自然現象の抽出   地震検出、虹検出、渋滞・交通情報抽出  イベント検出の仕組み   地震の場合:特定キーワードを含むツイート収集分析+位置情報   ただし位置情報付きツイートは日本全体で5%ぐらい。   ユーザプロフィールや、ツイート中の位置情報単語も使う。  既存ツールでは十分な解析が難しい   交互的なツイート、省略表現、略語表現  実用可能な情報抽出を行っているプロジェクトは少ない  新しい研究・ビジネスとしての可能性
    >岡野原 大輔(PFI) @hillbig 自然言語処理屋から見たTwitter  Twitterをコーパスとして活用   対話、談話情報が抽出できる   周辺情報が豊富   量が豊富  高精度な固有表現抽出が必須   その後の精度問題は大抵キーワード抽出の精度が影響   tweet特有の表現を真面目に処理  スケーラブルな処理速度が必要  自然言語処理の基本的な処理が重要   文が短く、省略が多い   BOWがうまく動かない場合も多く、真面目な解析が重要!   ゼロ照応解析(「俺は良いと思う @RT:….)   共参照解析(「AとBなら私は後者」)   tweetをまたがるトピック抽出(談話解析)
    >大角 知孝((NTTコミュニケーションズ株式会社) @elrana ツイちぇき!」開発における取り組みと課題  今、この瞬間に注目されている話題をリアルタイムに分かりやすくお知らせするサイト。  課題:ツイート取得   安定して大量のツイートが必要   Search API:断続的に取れないことがあったりする    APIは動いているが更新されない   APIが不安定になることを想定した実装   並列して異なるAPIを利用    Streaming API (gardenhose) + Search API (search.twitter.com)   バイアス    場所指定 Search APIとStreaming APIでのツイート文字数比較    場所付きの人はしっかり書いてる傾向   Buzz Finder Next(仮称)
    >お題1:Twitterは他の言語処理と比べて何が違うのか。 ・ネット特有の言葉が多い(wwwとかも) ・Twitterは一旦投稿したものを削除することはできるが、編集はできない。  揚げ足取り等に発展しやすい要因の一つ。 ・即時性。極めてリアルタイムに近い。  電車が止まった時にTwitter検索した人挙手→結構いる ・日本語と英語とでも使い方が大きく異なる。  英語だと単文。日本語だと議論にもなりやすい。 ・現実世界との繋がり、コメントしやすさ。  世の中で起きていることに対してコメントしている。これを取得しやすい。
    >お題2:Twitter情報活用したサービスは色々ある。それらにおける課題や注意点。 ・安定したクローラーを書くのが大変。  普通にAPIで集めるのだと量が足りない。 ・Twitterや検索の仕様が結構変わる。  言語指定の有無で結果が異なるとか。 ・データの量が多い。後ろ側で解析する処理が結構しんどい。  裏側の作りをしっかりしないとサービス提供上の課題。 ・Twitter流れてる情報はpublicだけではないので扱いに注意。 ・Twitterを認証に使ったサービスが増えてきているが、今後トラブルが出てくるのでは。
    >お題3:今後期待されるようなサービス/技術。どういうアプローチが面白そうか。 ・自分の個人情報に着目して補助するサービスが増えると思う。  Facebookとの使い分けにも興味あり。 ・発表にあったトラブル予測のようなものに期待。  もっと面白いBOTを! ・作ったサービスが期待されるように。  APIがどんどん更新されて、メタ情報が増えてきている。それを使おう。 ・Twitterだけでなく4sqもあるが、空間を有効に利用するサービス。 ・ユーザがどういう属性持っていて、どういう話題が受けているかを分かると
 ビジネス的に有効。どう仕掛けたらどう情報が伝搬するかというモデルは  あるが、それを使った実サービスが出てくるのでは。 Q: Twitterに限らず「情報膨大→要約→嗜好加味した要約」という目的や  手段の推移は分かるが、これらを「アンケート評価」よりももう少し  ベンチマーク的な評価をする場をセッティングすることはできないか。  GroupLensみたいに。 会場質疑応答 会場Q: サービス設計する上でリアルタイムに処理するのか、バッチタイムに  するのか。システム設計時点でどちらかにすると、もう片方を考慮  できない。両方を上手くサービス化するための設計は無いものか。 A: リアルタイムの場合でもそのサービスが要求されるのは数分とか10分等、  サービス次第で異なる。小さいバッチシステムと大きいバッチシステムを  分けて用意するといったことが考えられる。 A: リアルタイム/バッチ処理かといっても、取りあえず取りこぼしがあると  クローリング問題。そこをしっかり作って、足りない部分をバッチで対応。 会場Q: 公式報道前にTwitterに流れる情報について。利用にあたり気をつけている  点があれば。 A: 一番良いのは、上司をフォローしてフォローされること。ある程度見られ  ているという意識があれば良いのでは。 A: 自分のツイートについては自分の責任。他人のことについてのツイートに  ついては慎重に投稿するようにしている。 A: いろんな人が見ているので、見られ方次第でネガティブに取られることも  ある。できるだけポジティブに取られるよう書いている。 会場Q: private/publicがあるとのことだが、tweetには著作権があるのか。分析して  辞書を作った場合、販売可能か。コーパス公開する際に「やめろ」といった  ことが無いか。今後どう考えているか。 A: 一応publicになっているので検索エンジンと同じ立場。グレーゾーン。  Twitterからアクセス止められたら終わりなので、上手くやる必要はあると思う。 A: Ustreamで流した時にそのツイートを表示したら大きな問題になった。  ユーザ名はぼかして表示するようにしている。 A: グレーゾーン。それがいろんなAPI公開として広がっている部分もある。  ある程度の許容がもたれているという状況では。
    招待講演2: 「実務翻訳の現状と未来」講演者 田中千鶴香 氏(日本翻訳連盟理事・日本語標準スタイルガイド検討委員長) 課題  コスト削減(プロセス自動化等)  グローバル化(関連データの標準化)  ベンダーロックインの回避(Tradosの時代、オープンソース)
 支援技術  Computer Aided Translation: 翻訳メモリーソフトウェア、用語管理ツール等  Contents Management System: トピック単位で構造化管理、DITA。  Translation Management System: プロセス自動化、言語資源一元化。 翻訳プロセス全体の自動化  機械翻訳は自動化された翻訳プロセスの一部  対象ファイル→準備→XLIFF等→翻訳支援ツール→XIFF等→後処理→出力   用語データTBX、翻訳メモリーTMX   機械翻訳は翻訳支援ツールの一つ。 実務翻訳関連オープンスタンダード  翻訳メモリー   TMX(LISAの規格), XLIFF(OASIS), SRX(LISA), ITS(W3C)  用語データ   TBX(LISA), UTX(AAMT) 言語資源の活用  TAUS(Translation Automation User Society)  TDA(TAUS Data Association)   2011年3月より会員以外も翻訳メモリーのup/download可能に。   *uploadは著作権クリアしたもののみ許可。   関連URL: TAUS Search    入力文「翻訳機能」→「翻訳 機能」じゃないとうまくいかない。    何かあればTAUSへ。 機械翻訳+ポストエディット  MTと人手による後編集   機械翻訳の品質に応じてではなく、   目標品質に応じてエディット作業を選択。   目標品質毎のガイドラインはTAUSが提示している。  MTのみ/MT+社内ポストエディット/MT+社外ポストエディット(ライト/フル) 実務翻訳は目的・機能を重視  コストとスピードに応じて設定   正しい表記/自然な言葉遣い/読みやすさ/良い翻訳 和訳時の日本語表記の問題  文字種が多い  「どのように訳すか」と同時に「どのように表記するか」が問題  発注者毎に用語や表記仕様が異なり標準化されていない(特にIT業界)   コンピューター?コンピュータ?   ローカルエリアネットワーク?   ローカル・エリア・ネットワーク?ローカル エリア ネットワーク?   グラフィカル?グラフィック? 日本語表記への取り組み  SINAPS Forum   日本語表記スタイルガイドを整理    e.g, 半角英数字の前後にスペースの有無、長音の有無、、 表記使用の不統一:まとめ  百害あって一利無し   ガイドラインは機密文書   翻訳品質基準の一つ   優良企業ほど企業文化を尊重 提案  表記統一ツールの提案   対象ファイルから用語を抽出   抽出した用語の標準表記を定義ファイルに従って生成   抽出した用語を生成した標準表記の用語に置換   元のファイルに書き戻す   ファイル形式対応  問題点   辞書登録時のミスが永続化   新語はどんどん増えていく 翻訳の本質は不変  言葉・質に対するこだわり  「間」の翻訳 Q: 同じ文であったとしても、文脈によって訳仕方が不適切な翻訳結果が  あると思うが、どのように選択/支援されるべきか? 会場Q: 表記揺れを無くしていくという提案があったが、全世界に強制する  というものではないという認識で良いか。言葉の表記揺れにも  コントロール・ランゲージに通じる部分がありそうだが、どう考えているか。 A: 表記ガイドラインに従って翻訳せざるを得ないのが現状で、大変なストレス。  これを何年も続けているとタマラナイ。自分は自由に書いて、後はツールを  使うことで企業毎のガイドラインに従う形に変換できるようになれば、  とても嬉しい。 会場Q: それぞれが自由に書いた文を機械で変換するという話について、  語だけじゃなく、構文的な部分もできるんじゃないかと思う。 A: そこまでできるのであれば、ニーズもあるはずなので嬉しいです。 会場Q: 開発する場合お金は出るのか。 A: 検討させて頂きます。大きなビジネスチャンスでもあると思う。 会場Q: 翻訳以外にも社内文書スタイルに統一したいというのが恐らく企業ニーズ。  そういう企業の蓄積したデータが大量にあれば、ここに参加している人は  そこに統一するというツールはできると思う。ただし精度の問題はあって、  100%は困難で、いくら貰えるならどこまで精度を高める努力をする、  という話に落ち着くと思う。ある程度できたらリファインするというのが  現実的だと思う。 A: 実務翻訳の世界では、扱ってるファイル形式が沢山。こういったものも  扱えるようになると嬉しい。逆に言うとそこが条件でもある。そこが使えないと  使い物にならない。抜き出汁と書き出しを人間がやらざるを得ないと、  物足りず、値段を付け難い。 会場Q: (1)日本語と英語のペアを見ると機械翻訳でも難しいペア。翻訳のコスト  として違いがあるのか。(2)日本人は言葉に対する思い入れがあるという話が  あったが、表記の揺れは重要かもしれないが読む側にとってはどうでも良い。  そこまで求めているかというのはオーバースペックではないか。スペックを  下げて行く運動があれば、無駄なお金を減らせるのではないか。 A: (1)コストについては、求める品質との兼ね合いによる。言語の違い、  場所の違いによっても異なり、簡単には言えない。(2)オーバースペックでは  ないかという点については、その通りだと思う。ユーザは特に考えていない。  ただし、社内スタイルを変更するためのコスト、揺らぎを許容するための  コストが大変。 企業Q: ツールを利用する際に、翻訳のように100%マッチしたら問題無いと  思うが、そうじゃないケースについて。マッチ度合いが少し減る場合、  自分が訳した方が早いのか。 A: コストの問題でもあるが、がっかり感。
    特別講演: 「表現から意味へ:言語処理技術と言語の科学」講演者 辻井潤一 氏(東京大学大学院,マンチェスター大学教授,英国・国立テキストマイニングセンター 研究担当ディレクター) 計算言語学と言語処理 正しいアプローチ?  テキストに対して野心的な目標   T-H pairs/Frameの認識/意味役割の付与   特徴抽出器   →うまくいかない場合にはここを改善したり、テキスト増やしたり。    チューニングした結果はドメインが変わると知見が活かせない。    →分野適応/モジュラリティ 考えたいこと  ・テキスト表象と「意味」や「解釈」との間には大きなギャップがある。   目標が恣意的あるいは過度に野心的に設定されていないか。  ・人間の言語処理アーキテクチャは複雑。   単一の機械学習器だけでは不十分では?  ・巨大データへと向かう方向とは別の研究方向もあるのでは? 工学と科学  SRL, Textual Entailment   句構造、依存構造、意味ラベル    観測不可なものがアノテートされる。NLP応用上嬉しいから付けているだけ。    理論的正当化なく試行錯誤的に行われる。    疑似科学的な定量的評価。    →理論的により設定+理論からの吟味+正当化が必要では。   言語的な表現レベル    深層と表層    多層的な理論 vs. 炭層的な理論   説明すべきデータと説明すべきでないデータ   生得説と連合説    言語処理に特化した計算アーキテクチャ?   量には還元できない特異な構造   質/効率/モジュラリティ/適応可能性への寄与 The modularity of Mind/精神のモジュール形式  批判されるべき箇所は多分にあるが、分かりやすい形を提示。   言語処理のある部分は周辺系にあり、情報遮断性がある。   中央系は非限定的な情報参照があり、科学の対象としては研究できない。   →強すぎる主張ではあるが、ごった混ぜにしない点は有益では。 文法理論に基づく深い文解析  制約文法の研究CL:可能な解の集合(句構造木+述語-項構造)  文解析器の研究NLP:可能な解の確率分布   両者を切り離して見つけることを研究し過ぎていて、   どういう解があり得るか、どういう制約を満たしているか、   といった側面がお座なりでは。統合されるべきだろう。  意味に基づく知的な文検索システム MEDIE 何が計算できるかをきちんと定義する必要があるだろう。 どういう構造を計算したら良いのかを決める。 文法理論  初期の変形生成文法:深層構造で表層の違いを解消したい。(表現と計算の混同)  生成意味論:深層過ぎる。(野心的過ぎて奇妙な規則/雑多な系)  解釈意味論:あまり表層と変わっていない。(宣言的な関係記述)   →表層/深層を宣言的に記述する HPSG(主辞駆動句構造文法)  辞書として記述   e.g, love: 動詞、主語1つ、目的語1つ  文法規則   テンプレートとして記述    ユニフィケーション    情報伝搬    →辞書項目に、統語構造と意味構造の写像関係が規定される  複雑な統語構造から意味への写像 深い解析器に関する二つの見方  (1)入力→機械学習器→出力   入力は様々な特徴抽出により雑多に生成   出力に、フレーム/フレーム要素の認識(FrameNet)は野心的すぎる。   出力に、意味ラベル(PropBank)もまあだ野心的。  (2)文→深い文解析器→HPSGによる派生過程→述語-項構造(深い統語構造)  各々タスク設定が異なる。  (2)では比較的浅い所に「述語-項構造」が来る。 広いカバーレッジの文法  文法開発と評価のための木構造バンク   派生構造にある確率分布も計算できるので、最も適切な構造を選択する問題に。  文解析の難しさ   カタラン数   優先解釈の選択    比較的もっともらしい解釈をうまく選んでくれる確率モデルが必要    確率HPSG 高い効率の文解析 実用上は速くないと使えない  ユニフィケーションを速くするだけではダメで、  ユニフィケーションしない(ユニフィケーションする回数を減らす)、  まで考える必要あり。  →探索問題   CFGフィルタリング、高効率な探索手法、スーパータギング   ビームサーチ    ビーム幅を狭くしても大抵は上手くいく。    失敗した時だけビーム幅を広げてやり直す。 スーパータギングによる文解析器 局所処理と周辺文脈 意味の構成性(Compositionally)  フレーゲの原理:全体の意味は、部分の意味から決定される  ボトムアップに意味は計算できる  周辺文脈からの優先解釈の決定   辞書項目を選ぶ場合に、周辺を見て選ぶ→スーパータギング 優先探索を木構造作る過程でやるより、 木構造は作ってしまった後で項目選択時にやる。 スーパータギングのモデルにフィードフォワードする等でより高度に発展させると、 ユニフィケーションせずに探索問題として解けて、効率も良いシステムが作れる可能性。 統合的なモデルから段階的なモデル、 初期の段階で豊かな情報を参照するモデルが高効率な処理モデルになり得る。 述語-項構造は、より深い構造へと情報を写像するためのインタフェース表現となる。 巨大な学習データがあっても良いと思うが、 人間は、巨大な学習データを必要としないように見える。 Q: 安易に機械学習で何かをまとめて学習するというアプローチはそもそも  無理筋じゃないかというのは全く持ってその通りだと思う。そこを人間が  試行錯誤的にデザインしている部分そのものを機械化してしまえば、  と思うが、それでも計算リソース的には厳し過ぎるのだろうな。  そもそもそこを定式化(≒システム化)できていないわけだし。 会場Q: 生命科学の分野に特化されてイベントへのマッピング等をやる場合、  一般の場合にはどう手をつけたら良いかがまた悩ましい。どうアプローチ  したら良いか。 A: ドメイン特化知識と一般言語を繋げる所に、もう少し意味が寄与している  ように思う。言語だけでも知識だけでもないような部分を捉える必要がある。  ただし直接的にやろうとすると非常に粗い研究テーマになるので、  今はドメインでやってみたい。ワトソンも、かなりドメインを絞った特殊化  されたシステム。事象は何か、関係とは何かというのはまだ早いかなという印象。 会場Q: 巨大なデータを必要としないという点について、確かに巨大データを  食わせるのはどちらかというと嫌。ただ食わせるだけではなく、裏にある  何かについてもデータを必要としない考え方や枠組みが必要ではないか。  スーパータガーのモデルをどう作るか。 A: 巨大データの是非については議論の余地がある所。巨大データは知性とは  全く違うので、人間には無いような何かを持つ可能性もあり得る。  何かヒントが見えるところは否定できない。何をストラテジーに研究するか  ということ考えると、ドメイン・アダプテーションについて、比較的早く  適用するというタイプの研究もあり得ると思う。個人の話としては、  巨大データを食わせてドメイン特化モデルを別分野に適用する際に、  なるべくかかるコストを少なくしたい。ある種パラメタライズされた  ようなモデルかもしれない。パラメタさえ分かれば調整できる、  そういう感じのことをやりたい。
    P3: ポスター(3) P3-3 英語論文表現データベースを用いた分野横断的ムーブ分析 (pp.591-594)
    ○金丸敏幸, マスワナ紗矢子 (京大), 笹尾洋介 (ヴィクトリア大), 田地野彰 (京大)
    論文の構造が「背景→目的→、、、」とかIMRDという順番になっているかを 大量文献&人海戦術で調査してみたという話。アノテーション自体に揺らぎが 多く含まれているっぽいけど、こういうのが積み重なると、 「こういうストーリー構成の物語を読みたい」みたいな検索ができたりするんだろうか。 P3-4 語の共起を効率的に検索できる日本語作文支援システム「なつめ」の紹介 (pp.595-598)
    ○阿辺川武 (NII), ホドシチェク・ボル, 仁科喜久子 (東工大)
    当初は留学生向けの作文支援ということだったようだけど、 特に留学生に限定する必要ないよねということで表記のタイトルになってるらしい。 限定する必要が本当に無いのかが気がかりで質問してみたのだけど、 本当の所はどうなんだろう。 P3-8 短答式記述答案の採点支援ツールの開発と評価 (pp.611-614)
    ○中島功滋 (ベネッセ/CRET)
    比較的単文(1文とか2文?)を想定した採点支援のため、 クラスタリングすることで似たような回答群としての提示と、 参考回答とのBLUE距離で参考採点付けてみたらしい。 問題文も利用できそうなんだけど、そこは手つかずっぽい。 P3-10 汎用アノテーションツールSlate (pp.619-622)
    ○Dain Kaplan, 飯田龍, 徳永健伸 (東工大)
    多分、嬉しいツールなんだと思うけど、 「こういうアノテーションにはこういう属性名付けると良いですよ」 みたいな推薦までサポートしないと使い難そう(アノテーション結果を 利用するユーザにとって使い難そう)な予感(勝手な想像)。 クラウド的にアノテーションされたデータ蓄積しまくって、 傾向抽出すると面白そうなんだけど、どうなんだろう。 P3-11 『日本語話し言葉コーパス』における話題導入表現の形態統語論的特徴と談話構造の分析 (pp.623-626)
    ○高梨克也 (JST/京大)
    面白そうなんだけど客多数で話聞くタイミングが合わず。後で読もう。 P3-12 複数の客観的手法を用いたテキスト含意認識評価セットの構築 (pp.627-630)
    ○宇高邦弘, 山本和英 (長岡技科大)
    逆説的なのか自分自身で良く分かってないですが、 主文から推察できる事象を、その確度と共に生成できると便利そうなんだけど、 同じ話なんだろうか、違う話なんだろうか。 P3-21 長単位に基づく『現代日本語書き言葉均衡コーパス』の品詞比率に関する分析 (pp.663-666)
    ○冨士池優美, 小西光, 小椋秀樹, 小木曽智信, 小磯花絵 (国語研)
    素性に「形態素、句、節」といった単位とは別(?)に、 「短単位、長単位」という言語単位があるっぽい。 P3-29 筆跡とパーソナリティの多面的対比 (pp.691-694)
    ○高野孔司, 久野雅樹 (電通大)
    心理学?だかである程度の傾向はあるものと解釈するのが正しいのだと 思ってましたが、そうでもないのかしら。問題設定(テスト環境の設定) 次第でどうにでも解釈が変わりそうでもあるので、そこら辺の話が気になります。

    NLP2011, 本会議1日目終了(セッションB1: Web応用)

    火曜日, 3月 8th, 2011

    NLP2011、本会議1日目(一般講演セッション1つ+招待講演1つ+ポスターセッション2つ)。
    これ書いてる時点ではまだ終了してないですが(ごめんなさい)、
    ポスターセッションで見たかったものは見て終わったので、今日のまとめ。

    例によって青字は個人的な疑問等赤字は会場質疑応答です。

    目次
    B1: Web応用
     ・質問で不足している情報を回答で指摘されたユーザが再投稿した質問の調査
     ・ブログにおけるコメント先の解析
     ・大規模Web情報分析のための分析対象ページの段階的選択
     ・情報分析システムWISDOMのユーザ評価とその分析
     ・言論マップ生成技術の現状と課題
     ・Web文書の時間・論理関係分析に基づく情報信頼性判断支援システムの開発と実証実験
     ・クエリログの時系列情報に基づくキーワード修正リスト生成手法
    招待講演1: ゲノムを読む、榊 佳之 氏(豊橋技術科学大学学長)
    P1: ポスター(1)
    P2: ポスター(2)

    
    
    
    

    B1: Web応用

    B1-1 質問で不足している情報を回答で指摘されたユーザが再投稿した質問の調査 (pp.33-36)
    ○小島正裕, 水野友之, 渡辺靖彦, 岡田至弘 (龍谷大)
    情報が不足している質問 ・不足している情報の指摘 ・指摘を利用した質問作成支援システム(最終目標) →今回は調査報告 直接的に解決する回答ではないが、 解決のための状況確認を促すコメントの割合が多い。 →さらにその中でも  「質問者がそもそも知らなかった情報」よりも  「知っていたが記述していなかった」割合の方が多い。  →質問することで指摘すること自体で良質の質問を行えるのではないか。 Q: SVMで何かを学習するようだけど、入力は質問文だとして出力は何だろう。 Q: 質問カテゴリを「パソコン・周辺機器」に絞ったことで「質問での説明  が不十分」になりやすいという傾向が無いか? Q: 「質問での説明が不十分」であることを指摘する際、何が十分でないの  かを伝えることが適切かはどのように判断するのだろうか? 会場Q: 今回の事例は、全体の中でどのぐらいの割合なのか。 A: 4,000件/100,000件(多分)。 会場Q: これはシステムが検出した件数だと思うが、coverage は  どのぐらいかは調査しているのか。 A: まだしていないが、大凡の傾向としてはこのぐらいだと認識している。 会場Q: 最終的にこの結果をどう使いたいのか。情報が不足している  という指摘を自動的にしたいとのことだが、質問する(質問だけ  を見る)段階なのか、ペアを見て分かるようにしたいのか。 A: 両方。 会場Q: ペアを見ないと分からないというのでは余り面白く無いの  では。回答が無い状況で指摘できるようにはならないのか。  現状のシステムではどうなる? A: 現状ではまだ動いていない。 A: 予想する所はかなりいけている。しかし、不足している情報の  可能性がいろいろあって、どれから出したらユーザに取って便利  なのかというところが良く分からない。良い答えが返っているの  はどういうペアの時かという情報から重み付けることで、優先度  を付けることができるだろうと考えている。
    B1-2 ブログにおけるコメント先の解析 (pp.37-40)
    ○津野優佑, 徳久雅人, 村田真樹 (鳥取大)
    情報収集の際、ブログ記事本体だけでなく、コメント部にも有益な情報がある。 ただし、コメントが何(記事本体or先行コメント)に対する情報かが分からない。 →コメント先の解析 
着目点 ・文章内容の類似度 ・ブログ記事の特性(コメント先や相手名を明示する慣習など)利用 ・共通名詞の利用(コメント中の共通名詞) Okapi BM25 によるスコア利用 ・共起語の利用 ・文末表現対の利用(コメント元コメント先の文末部分3文字を利用)  e.g., 〜ですか? 〜ですよ Q: テスト用正解データを人手で作成しているとのことだが、厳密な正解  が判断しづらいケースもありそう。どういう例があったのか。 Q: 複数手法の組み合わせ方を優先順位として決定しているが、重み調整  して利用することはできないのか。 会場Q: コメントにはブログの記事本体へのコメントや、コメント間  コメントもあると思う。今回は本体へのコメントは扱わなかったのか。 A: 今回は本文もブロックの一つとしており、扱っている。 会場Q: 本文はコメントより長いが、その影響は無いのか。  式が変わってくるとか。 A: 文長によってスコアや特徴量が変わるというのは、文長によって  調整してくれるため影響は小さいと思う。 会場Q: 単純に、新しいコメントであれば本文に繋げるといった  ナイーブなルールは使用していないのか。 A: 提案としてはあったが、今回は利用していない。 会場Q: 「**さん」といったことを付けないと行けないのは、複雑な  時には効くと思うが、そうじゃない時には前のその人のものという  アドホックなものでどのぐらい精度が出るのか。そこがベースライン  になりそう。そこでどれぐらいの精度になりそうか。 A: コメントを確認していた限りでは、コメント先を明示していない  ことが多いので、さほど差が無いと考えられる。 会場Q: コメントが10も20もある場合は別だが、数個の場合には  ほぼ本文じゃないか。 A: コメント2は本文かコメント1へのコメントである場合だけでなく、  全く関係ない話題へのコメントでもあり得る。 会場Q: 問題の難しさを示すためにも、先に示したアドホックな方法で  どのぐらい精度が出るかを示した方が良いと思う。 会場Q: コメントや本文を大きく一塊にしているが、塊の粒度を変える  ことに対してどのぐらいロバスト性があるか。 A: 発話単位でやっているが、対象としてる文の範囲を帰ることも可能だと思う。 会場Q: リスト順位のトップを変更したケースも試していれば、  その結果についても知りたい。 A: 今回は試していない。
    B1-3 大規模Web情報分析のための分析対象ページの段階的選択 (pp.41-44)
    ○赤峯享 (NICT/NAIST), 加藤義清, 川田拓也, レオン末松豊インティ (NICT), 河原大輔 (京大/NICT), 乾健太郎 (東北大/NICT), 黒橋禎夫 (京大/NICT)
    WISDOM「誰が、何を、どう評価/主張しているか」 分析基盤  10億ページ/2億の構文解析済みページ  スパムページやカタログページばかりでは有益じゃない  →ページ選択が重要 
Web検索:検索結果の上位数ページ Web情報分析:上位数百〜数千ページが影響度高い ・品質の高いページ  フィルタリング(カタログ、スパムページやduplicateを除外)  重み付きサンプリング(PageRank等) ・更新同期の取れたページ 選択精度を上げるには、メタ情報だけでなくテキスト内容を利用する方が有利。 だが、計算コストが高い。 →仮定:サイト中の一部のページ品質≒サイトの他のページ品質  段階的に選択を行うことでコスト削減。 Q: ページやコンテンツの質に関連しそうな付加情報として、ブログや  ツイッター等での「likeやfav」といった付加情報や、delicious等へ  の登録等様々な付加情報が増えてきていると思う。このような他ユ  ーザが直接的にインタラクションを行った情報を利用することは  困難なのか。 会場Q: 品質の高い、分析に役立ちそうというのと、Webの何を対象  にして分析したいのかに依存しそうだが、罵詈雑言みたいなのも  取りたいということもありそう。どういう立場で役に立つ・立たない  というのを考えているのか。 A: 質の良い罵詈雑言があるという段階ではなく、自動生成された  duplicate/カタログページをまず取り除きたいというのが第一段階。 会場Q: 結果で示した20〜30%というのはそれに該当するページ? A: 殆ど無駄になるページ。 会場Q: 適格/不適格ページを人間でもある程度判断できたとのこと  だが、ケース次第で変わることもあるし、判断のぶれもある。 A: 本当にみんなが低く入れたページは、テキストは含まれているが  2,3文だとか。人によって品質が違うというレベルまでは現れて  いない。人によって判断が変わるという部分は、さらに分析後で解決する。
    B1-4 情報分析システムWISDOMのユーザ評価とその分析 (pp.45-48)
    ○川田拓也 (NICT), 赤峯享 (NICT/NAIST), 河原大輔 (京大/NICT), 加藤義清 (NICT), 乾健太郎 (東北大/NICT), 黒橋禎夫 (京大/NICT), 木俵豊 (NICT)
    http://ici.wisdom-nict.jp/ 続き発表。WISDOM概要と、その評価について。 Webを利用した意思決定を如何に支援できるか。 意思決定プロセス[Simon 1977]に応じた支援技術の開発 ・新たな行為を必要とする状況の設定 ・可能な行為の代替案の探索・発見 ・その中から選択する過程 Q: 玉石混淆の中から情報を選り分けるというタスクにおいて、Web上の  データ以外の知識は利用しているのか? もし利用しているならばど  のようなものか? 利用していないならば、Web上のバイアスを避け  ることは困難だと思うが、それは問題にならない? Q: 選り分けの支援とは一種の情報推薦に相当すると思うが、ユーザの属性  を考慮すして支援することはできないか。例えば、人の属性毎にどの  ような選別をしやすい(することで理解しやすい)形式や、必要とす  る項目は限定されているといったことはできないのだろうか。  →多角的総合的に分析した結果を提示することで代替している。 Q: アンケート評価を行っているが、実際に情報収集・分析するのに要する  時間や労力には違いが見られたのか。  →調査時間も計測しているが、厳密には評価していない。調査自体が   いい加減な人は評価がばらばらになりがちというのは見られた。 会場Q: アンケート評価一般100人について、意思決定にも色々あると  おもうので、ユーザ層を絞って評価してみては。 A: 敢えてユーザ層をばらけさせている。そもそもどういう意思決定が  あるかを知りたいということと、層毎に質的な差異があるならそこも  確認したい。
    B1-5 言論マップ生成技術の現状と課題 (pp.49-52)
    ○水野淳太 (NAIST), Eric Nichols, 渡邉陽太郎 (東北大), 村上浩司 (楽天), 松吉俊, 大木環美 (NAIST), 乾健太郎 (東北大), 松本裕治 (NAIST)
    目的:ユーザの情報信憑性判断を支援 検索された情報を、クエリと意味的関係に基づいて分類し、俯瞰的に表示  同意/対立、根拠、弱対立 言論マップ生成  係り受け解析  述語構造解析  拡張モダリティ解析  局所構造アライメント  関係分類  修辞構造解析 対立関係精度はまだ不十分  海面が上昇する下がる:は認識できる。  海面が上昇する変化しない:は推論が必要。 Q: 同意/対立/弱体率、という視点からトピックを分析しているが、  何故この視点を選んだのか。 Q: 信憑性判断を支援するために多角的な意見を俯瞰的に提示する  ことの評価として、絶対的な基準を設定することは困難かと思うが、  それを考慮しても評価方法は妥当か?(ある程度の軸を提示する  ことで十分だと判断しやすいという傾向を見ているだけではないのか) 会場Q: アライメントが大事とのことだが、理由の所はそもそも  パッセージ検索で違うのが取れてしまう? A: 述語の対立が大変。 会場Q: ユーザ評価について、悪い評価をしたのはどういう例があったか。 A: 基本的には高評価で、悪い評価をしたのは精度やインタフェース  への指摘、ソースが欲しいといったコメントを頂いた。 会場Q: システムのスピードはどのぐらいか。 A: 検索対象文をどのぐらい取ってくるかにもよるが、1クエリで2〜3分。 会場Q: 対立意見を取ってくる所の評価が低いようだが、モダリティ解析が困難? A: 基本的にはモダリティが困難だが、そもそも述語の対立語彙知識が  他と比較して少ない。あるドメインでは対立しているが違うドメイン  ではそうでもない、こともある。
    B1-6 Web文書の時間・論理関係分析に基づく情報信頼性判断支援システムの開発と実証実験 (pp.53-56)
    ○岡嶋穣, 河合剛巨, 中澤聡 (NEC), 村上浩司 (楽天), 松吉俊, 水野淳太 (NAIST), エリック・ニコルズ, 渡邉陽太郎, 乾健太郎 (東北大), 渋木英潔, 中野正寛, 宮崎林太郎, 石下円香, 森辰則 (横浜国大)
    WISDOMと相補的なシステム。 情報信頼性判断を支援するシステムの開発と実証実験。 「どうしてその意見を言っているのか」 根拠/理由/切っ掛け/etc. 根拠→言論マップ 異なる意見が生じる理由→調停要約 意見を変えた切っ掛け→意見変化イベント抽出 Q: アンケート評価しているが、ある程度満足できれば高評価するのは  当然で、システムとして適切な結果を提示出来ているかの評価とし  ては不十分では?(そもそも絶対的な正解がある問題では無いと思  うが、何かしら客観的な正解を用意できないか?) 会場Q: トピック毎に分散があることが何を主張したいのか良く分から  ない。調べ方が難しい?価値判断しづらい? A: その2つの側面があり、調べ方が難しく既存システムだと何波ターン  かクエリを試す必要がある。価値判断については、自分は賛成だから  賛成だけを見たい、若しくは逆に反対意見だけを見たい、といった  ことが考えられる。 会場Q: 提案システムと既存システムとで分散が異なるというのは、  ユーザの行動が違うのか? A: それぞれのユーザが賛成意見だけを見たい意見だった場合反対の意見  が低くなることが考えられるが、どちらも網羅的に提示しているため  分散が少なかったと考えられる。 会場Q: 分散分析してみた? A: 統計的優位性についてはまだちゃんとはやっていない。 会場Q: 男女性別が影響しているか、年齢が影響しているかとか見れる  かもしれない。 A: 正確な分析はしていないが、世代や職業については調べてた範囲では  大きな差は見られなかった。 会場Q: 大きなモジュールとして3つあるが、これで十分なのか、まだ  不足していて何か追加が必要なものがあるのか。 A: 難しい。この他にも画像系の処理しているグループもある。 会場Q: 自由回答で「こういうのが欲しい」というのは無かった? A: 発信情報の信頼性ソースが多く、他には特に無かった。
    B1-7 クエリログの時系列情報に基づくキーワード修正リスト生成手法 (pp.57-60)
    ○平手勇宇, 竹中孝真 (楽天)
    キーワード修正アルゴリズム:もしかして検索。 文字列距離で多くはうまくいくが、例外もある。 「桃らー」→「辛そうで辛くない少し辛いラー油」 →文字列上の距離が大きいキーワードに対して、クエリ修正行動を利用。 Q: 未知語抽出や同定と同等課題? 会場Q: Googleでもクエリの書き換えということでコメント。適合率80%  は甘くて、世の中では99%じゃないとダメ。極端な事例だが訴えられる  こともある。書き換えパターンを拾っていくと、言語モデルが小さい  ので類似パターンが多く見つかる。一つ一つのインスタンスを見るの  ではなく、同じような書き換えを行っているといった全体を見れば、  精度も高くなると思う。 A: 人手でチェック済ませた後で登録するので、この段階では80%ライン  で多めに出した。追加した後のクエリログ見ることで、クエリがクリック  されなければ違うという判断もできるかと思う。キーワード間距離を  拡張する上でコメントについても検討したい。 会場Q: 読みが々で違うとか、タイポの割合はどのぐらいか。 A: 感覚としては3割ぐらい。残り3割(?)は商品名メーカー名。
    招待講演1: 「ゲノムを読む」講演者 榊佳之 氏(豊橋技術科学大学学長) 当初は個別に「どこそこに遺伝子を発見した」が行われ、 全体が見えないままに試行錯誤的に着手されていた。 このままでは拉致があかないので、 ・国際的に協力し合い、 ・各国で責任を持って取り組む箇所を分担し、 ・解読したゲノムを無償公開 する形で取り組んだ。(すばらしい!) サンプル調整→配列決定→データ処理・編集→サンプル調整の繰り返し。 各プロセスで異なる長所が求められる。 →大規模センターではデータ生産の効率性を高める工夫 ヒトゲノム解読のレベル ・何処に何が書かれているか。  これ見ただけでは意味付けがサッパリ分からない。 (1)ゲノムの基本要素を見つける(遺伝子/発言制御エレメント/その他) ・人間だけ見てると分からないが、  例えばハエとかマウスとか、人間以外と比較することで分かることも多い。  →比較ゲノム解析   割と共通している部分が多い。   脊椎動物における制御配列が浮かび上がってきた。 (2)基本要素の機能を知る。  遺伝学的な手法(正遺伝学/逆遺伝学)   遺伝学:遺伝子と表現型の関係を推論する科学   遺伝要因/環境要因   →個人差問題  相同性からの推定(相関解析法)   個人差10%なら該当件数数万。   1%なら該当件数が数千万単位。   何千万分布の偏りはどうなっているか。   →例:脳梗塞/糖尿病になりやすい関連遺伝子は?    ただし要因自体が多岐にわたるので、特定の人達を集めて観察し、    リスクファクターを特定するといった工夫が不可欠。また、    本当に直接要因なのかといった、因果関係の調査も必要。  相互関係からの推定 (3)遺伝子制御システムを理解する  階層性  正と負の制御  頑健性   スケール・フリーなネットワーク構造 (4)これらはまだ静止画。本当の生物は動画。ダイナミックな関係図を描く必要がある。  システム・バイオロジー(現在盛ん) ヒトゲノムが全て読めたことで、 個別事象を全体との関連で捉えることができるようになった。
 テクノロジーの発展  30億塩基の収集に、2002年で1200日程度かかったのが、  2008年には2日、2010年には数分でできるようになってきた。  →全日本人のゲノムデータも集積可能な段階に   必要に応じて個々の解析を検討することも視野に。  →代謝経路予測   Synthetic Genomics   最適のゲノムを構成し、目的に合った最適な生物を構成して   利用することもできるのではないか。   →細菌ゲノム完全合成の例 会場Q: 経路が良く分かるという話について。経路が分かるためには、  かなり多くのタスクが集約されていると思う。NLPにおける言葉に  置き換えるとそこは並大抵の努力ではないように見える。これは  どうして可能になったのか。 A: 基本的には物質を分解する経路。徹底的に遺伝子を調べられて、  基本骨格がある。それからの相同性、相反性、既存経路との関係性  から求めていった。基本骨格、例えば大腸菌とかがあり、そこから  積み重ねていった。 会場Q: DNSシーケンスやる時には馬力のある人とか様々な人が必要  になるようだが、NLPでもそうだと思える。そこをうまくやる  というのは、眼力を持った人がやる? A: 眼力もあると思うが、まずは3つのプロセスともやらせる。その上で  向き不向きを見ていく。全体を理解してもらうのが大切。パートだけ  入ると何のためにやっているのかが分からない。
    P1: ポスター(1) P1-12 意見の重要度と客観的補足情報を考慮したレビュー要約 (pp.204-207)
    ○唯野良介, 嶋田和孝, 遠藤勉 (九工大)
    「属性毎に数値評価+自由記述文」で構成されるレビュー群を要約するという話。 【重要語(TFIDF)+分類(クラスタリング)+集約(セントロイド文選択)】 に属性毎の数値評価も組み合わせたやつは評価自体の揺れもあって あまり精度が高くならなかったとのこと。 数値評価を除いた方法で重要文選択するところは比較的良かったっぽい。 P1-13 直接調停要約自動生成システムHERMeSの言論マップとの連携 (pp.208-211)
    ○石下円香, 渋木英潔, 中野正寛, 宮崎林太郎, 永井隆広, 森辰則 (横浜国大)
    ある2つの対立意見について、実は対立しているのは異なる軸であって、 そこを考慮した要約文(直接調停要約)を自動生成しようという話。 解析対象を「全体集合:肯定文書群:否定文書群」の3パターンに分けて、 各々で特徴語抽出。単純な頻度ではうまくいかないが、ランキング+差分 で見るとうまくいくケースが見られてきた(いかないケースもあるが)。 ということらしい。 P1-14 直接調停要約自動生成システムHERMeSの対比表現を用いた精度向上 (pp.212-215)
    ○永井隆広, 渋木英潔, 中野正寛, 石下円香, 宮崎林太郎, 森辰則 (横浜国大)
    精度を高めるために対比表現  接続詞:だが、しかし、、、  接続助詞:けれど  その他:ではなく、逆に、、 を加味してフィルタリング処理で、ある程度効果があったらしい。 P1-16 テキストの内容を表す記述要素の自動生成手法の検討 (pp.220-223)
    ○久保木武承, 山本和英 (長岡技科大)
    単にキーワード検索するだけだと提示される文書群が欲しいページなのか 分からない。それを補助する目的で「テキスト内容を表す記述要素」を 定義し、それを自動生成+自動付与する基礎実験をしてみた、という話。 スニペットや要約とはまた違った視点という意味で面白い。 P1-19 Twitterからの自動車の不具合情報抽出 (pp.232-235)
    ○北林智治, 酒井浩之, 増山繁 (豊橋技科大)
    (1)該当文が不要か否か、(2)Twitter特有の言い回しか、 (3)文に含まれる単語対は何か、(4)抽出条件に合致するか、 といった工程を経て情報抽出するという話。 綺麗に整えたアプローチ。
    P2: ポスター(2) P2-1 共起要素のクラスタリングを用いた分布類似度計算 (pp.292-295)
    ○大平真一, 山本和英 (長岡技科大)
    単語共起を利用して「単語同士の類似度」を求めましょうという話。 良くありそうな話だとは思うけど、ノイズ除去するための工夫を加える ことで先行研究よりエラー低減したらしい。 P2-5 述部機能表現の意味ラベルタガー (pp.308-311)
    ○今村賢治, 泉朋子, 菊井玄一郎 (NTT), 佐藤理史 (名大)
    範囲同定と曖昧性解消を同時にやりましょうというアプローチが面白い。 フレーズラティス(表層形+意味ラベルをセットにしてラティス 構造として扱う)を構築して、最尤パス探索問題に落とし込む。 素性には表層形ベースのN-gram素性と、ラティス周辺情報としての マッピング素性2種類の合計3種類で構成しているっぽい。 P2-7 日本語格解析において問題となり得る諸現象の定量的分析 (pp.316-319)
    ○花岡洋輝, 松崎拓也 (東大), 宮尾祐介 (NII), 辻井潤一 (東大)
    「深い構文解析」をするための定量的分析。超お疲れさまです。 項-述語構造が構文木的に遠い所にある関係が取り難いよね、 それをどうにかしようというところへのワンステップっぽい。 spainホップ数という距離を導入することでどのぐらいcoverage が見込めるかを大規模に調査したらしい。

    NLP2011, チュートリアル終了

    月曜日, 3月 7th, 2011

    NLP2011の一日目(チュートリアル)が終了しました。

    チュートリアルというだけあって分かりやすい言葉で話されてるケースも多いのですが、濃い話が長時間に渡って続いたので途中から自分で咀嚼することができなくなってる部分が多数。頂いた資料には参考文献も多数示されているので、適宜参照しないと。

    今日一日の感想としては、NLP(自然言語処理)というキーワードで括っていても研究対象やアプローチが多種多様なのを体感でき、自分がやろうと思ってることも、よりブレイクダウンして考えないと前進することが困難だということ。前進できたとしても討論の場に持ち上げることができず、「試してみました」だけな話になってしまいそうなこと。一方で、その討論のために評価を厳密にやることが困難なテーマも多数ごろごろしてることが良く分かりました。評価困難だとしても、取りあえず第三者が使えるようにツールを公開してしまうことでリアクション得られてより進みやすくなるというのも、その通りだよなと再確認。やること一杯あって、ある意味幸せですね。

    以下に、今日のチュートリアルに関するメモと、質疑応答関連のサマリを残しておきます。

    青字で冒頭に「*」や「Q:」が付いてる箇所は個人的な疑問やコメント。
    赤字は会場内での私が意味を汲み取れた質疑応答。

    目次

    
    
    (T-a) 3月7日(月) 11:00〜12:30 司会:高村大也(東工大)
    「強化学習の基礎と言語処理への応用」伊藤秀昭 氏(佐賀大学)
    試行錯誤により報酬を最大化する行動を学習する。 教師あり学習と異なり、明示的にどの行動が最適化は与えられない。 >一段の決定問題(bandit problemの例) ここでは観測は無し。 強いて言うなら2台のスロットマシーンがあるということを観測する。 *報酬自体も観測の一部だと思ってたけど、独立して考えるのね。 最初から期待値が求められるなら計算したら良いが、ある行動を選択した 際に得られる報酬がどの程度見積もれるか分からないときに、最適な行動 を学習したい。 →行動価値の推定 ・exploitation vs. exploration 回数が少ないうちはQ(a)はあまり信頼できない。  arg max(Q(a)) を選ぶべきか(greedy action)  それ以外の行動を選んでQ(a)をより正確にするべきか(exploratory action)  →厳密な解決(様々な要因により異なる)は困難。近似解を考える。   ε-greedy法   softmax法 Q: 報酬が変動するような場合にはどうなる?  ・短期的変動/中長期的変動とかケースバイケース?  ・多段決定問題と等価?   ・割引率の推定/調整問題? >多段の決定問題(三目並べの例) ・1段決定問題との違い 環境:agentの行動により影響を受けるもの+agentに観測と報酬を与えるもの。 報酬:行動の評価はすぐに得られるとは限らない。 →1回のplayでどのぐらい報酬が得られるかを推定。 ・遷移グラフで全局面を網羅生成 ○と□で表現された経路には、観測と行動の履歴を対応付けることができる。 各履歴の生起確率は、各行動and各観測がどの確率で得られるかに依存。 ある履歴o1において行動a1を選ぶ関数π((o1),a1)を政策と呼ぶ。 最適なπ()を学習するのが目標。 ・観測関数 ある行動を選択した結果、どの観測に遷移するか(相手がどの手を選ぶか)を観測関数と呼ぶ。 政策と観測関数から、履歴の生起確率が求められる。 ・エピソード 履歴の中で終端まで到達したもの。 ・報酬関数 ある履歴において行動aを選択したとき、直後の報酬がある確率分布に従って得られるとしたもの。  報酬の割引率(遅く勝つより、早く勝つ方が良い)  割引率を加味して、各エピソードの報酬和を評価。 Q: 単純に割り引くことでデメリットは無いか?  ・例えば一時的に負けるが最終的に勝てるような行動履歴は得られる? ・期待報酬と最適policy  報酬関数と履歴の生起確率から期待報酬を求めることができる。  ランダムpolicy→常勝policyへ。   環境<A,O,o(1),θ,R,γ>:固定   V^π=E{R_e|π} を最適化   →いろんな解法がある。 >解法1: direct policy search policy π(h,a)は履歴hと行動aから確率への関数だが、膨大なので近似が必要。 近似の仕方は工夫のしどころ。NNやlog-linearモデル等。 →πがθでパラメトライズされた近似 policyを、π(h,a:θ) や単純にπ(θ)と書く。  勾配法:このままでも計算量多いので更に近似→確率的勾配法。 >言語処理への応用 [Branavan 09] Windowsのヘルプ文章→文書の指示通りにWindowsを操作。 その文章から操作への写像を学習。 観測:文書のみ処理部分の一部+PC画面の情報 行動:PCへのコマンドと、文書のどの部分を処理したかの情報 報酬:操作の正しさをチェックするのは困難なので、工夫。  負の報酬   アイテムに対応していない状況に陥った場合、それ以上操作を続けられない。   行動数。  正の報酬   多くの単語を処理できた場合。 Q: (パッと見だけど)文書を処理する順番は考慮していない? 会場Q: どのぐらい学習を繰り返せば良いのか。仮定をおくことで理論的な終了  タイミングは分かるのか。 A: 最適値が観測できる場合には分かるが、一般的には観測できないので、分からない。 会場Q: 強化学習ではロボットでインタラクションがある時に良く使われているが、  そういうインタラクションが無い場面ではどういう用途に使われている? A: 資料最後にある対話システム [Young 10] が一つの例。バーチャルな世界にモノ  を作っている。バーチャルな世界でも複雑になってくると計算困難なので、擬似  的に最適値を学習させたい。 会場Q: ユーザの反応を取り込んでいる? A: この例では Simulated User を作ってやっている。 会場Q: 言語処理における強化学習の応用として、どの辺りに可能性がありそうか? A: 対話処理では結構使われている。それ以外にも人間が関わるいろんな所に使える  のではないかと、漠然と考えている。 会場Q: 集団での対話は、1対1の対話からやる強化学習とは少し異なるように思うが、  そこは余りやられていないように思う。これはやるべきなのか、やらない方が良いのか。 A: 全てをRLでやろうとするのは大変。表面を見るといろんな情報が入り込んで複雑  に見えるが、うまく抽象化ができれば、例えば質問するとか挨拶するとか、そうい  う単純な形で書けるならRLしやすい。それ以外のケースではRL以外も検討し、  上手く使い分けすることが良いのでは。
    (T-b) 3月7日(月) 13:30〜15:00 司会:宮尾祐介(NII)
    「形式意味論の考え方とその変遷」戸次大介 氏(お茶の水女子大学)
    >背景と形式意味論 自然言語の「意味」は多様な側面があり、直接研究対象とするのは困難。 2文の間に演繹関係があるか。 1文目(包含する方)が真ならば、演繹関係がある副文も真。 これを論理的演繹として定義することが形式意味論の第一ステップ。 形式意味論とは、含意関係を予測・説明する理論。  ・意味的含意  ・会話の含意 >モンタギュー文法(PTQ)[Montague 1973] PTQは形式意味論ではない。→形式意味論である。by @kaleidotheaterさん モンタギューを否定しながらも、PTQのアプローチを参考にしながら厳密な形式意味論をやる。 PTQ:シンタックス+セマンティクス(IL) IL:一階述語論理+様相論理+型付きラムダ計算 *前半20分ぐらいから既についていけてない。。(涙) →ひたすらPTQの気持ち悪さを感じて欲しいというのが趣旨だったらしい。orz PTQ自体は不完全なものだが、 スコープ分析の仕方は面白く未だに似たようなアプローチが多い。 また、これを「de re読み」と「de dicto読み」に応用した点がエライ。 らしい。 初の「構成的意味論」(compositional semantics) を提示することで、 意味論が反証可能になった。 それまではある文→論理式への写像があやふやだったが、 初めて単語レベルからの写像を提示した。 「論理では自然言語が扱えない」という議論に対し、 恐らく初めて提示した論文。 PTQは沢山問題があるが、 反証&修正という歯車が回り始めることで現在の発展につながっている。 "Generalized Conjunction", "Type Raising", etc. 会場Q: センテンス→文章の意味、文と文の意味を扱うことについてどうやったのか。 A: 今回の話は80年代だった。文と文を繋いでしまって一まとまりとして扱うのも  やられているし、どう切り分けるかについても様々なアプローチがある。DRP(?)。  Compositional なDRPが無いかということについては90年代以降やられている。 会場Q: (1)使う立場からすると「分からない」のが大問題で、難し過ぎて使えない。  力学だと古典力学/ニュートン力学・・・と進んでいるが、多くの場合は古典力学  で十分。形式意味論についても、ある程度小さいものならこれぐらいの複雑さでOK  というものがあると助かる。  (2)スコープについて、人間が読んでも良く分からないものもある。自然/不自然言  語処理。良く読むとこういうことかもしれないというものについて、  何かしら考えがあるか。 A: (1)難しいからではなくて、完成していないからだと思う。量子力学やればできる  というような統一された世界が無い。計算的側面も欠けている。全部の現象を考え  ていないから、ブレイクスルーが起きていないのだと思う。統一した瞬間簡単な  ものになると考えているので、そこを目指している。  (2)はっきりとした理論ができた後の話かもしれない。 会場Q: 一般全ての文例を説明することへのチャレンジはとても大切なことだと思う。  その手続きの詳細を理解できる人は少ないかもしれないが、パッケージして使える  ようになれば利用者も増え、発展しやすくなるのでは。 A: 形式意味論で扱っているというのは、分野に限らず全部についてやっている  というより、言語を扱う以上そこを避けて通ることができないのだと思う。  まず「意味」が良く分かっていないから、こういう風にやっている。  そもそも「意味」をどう書くか、どういう振る舞いを持つ演算として書けるか。
    (T-c) 3月7日(月) 15:15〜16:45 司会:高村大也(東工大)
    「Understanding sentences in Japanese」Edson T. Miyamoto 氏(筑波大学)
    どのように文を理解するか。 眼球運動(大人)の場合  単純な環境(pick up the candy)似たオブジェクトcandle  →似た単語のオブジェクトがあると230ms 子供(赤ちゃん)の場合  何度、どのぐらいintensionを持って見るか。  遮るものがあると隠れるという知識の有無。  驚く飽きる Neurolinguistics  brain lesions/fMRI/PET/MEG/EEG Reading times  silent reading -> eye movements not smooth: fixations, saccades  仮説:longer reading times=more difficulty  →Self-paced reading   eye tracking とボタン押した回数とを、文節毎に比較 Human parser  (1) cognitive resources  (2) knowledge bases (grammar, social conventions, world knowledge)  仮説:言語の違いは(2)のみに依存→(2)のみを学習すれば良い。   英語の例   日本語の例   →alternative rules I (head is crucial), II(processing is incremental)    客を(ヲ格)/客に(二格)で他単語を見る頻度(≒他に着目する頻度)が異なる。 How soon is the parent node A built?  英語/日本語といった言語の違いはあるが、  「どのぐらい読み違えるか」は似ている(?)。 Q: え、そうなの? Memory resources  Long-term memory  Working memory Hyakurakan test  cause? consequence? Heavy NP Shift  English: heavy stuff to the end  Japanese: heavy stuff to the begin Metrics: how do you measure distance?  number of words  number of new discourse entities  similarity of the constituents  time elapsed  etc. 青字で書かれたred 会場Q: コンピュータはワーキングメモリが一杯ある。アルゴリズムはみんな一緒  でグラマーが違うという話があったと思うが。 A: ワーキングメモリが多いケースは分からないが、少ないケースは患者さんで多  くいる。文章を作ることは普通にできる。ワーキングメモリが必要なのは読む  ときで、多い人は読むのに苦労しないが、少ない人は読むのに時間がかかる。  読む時間は遅くならないが、正答率が遅いというケースや、正答率は高いが読  み時間をかなり要するというケースもある。 会場Q: 時間がかかるというのはアルゴリズムが違うと考えて良いのか。 A: ある意味で違うと考えても良いと思う。ある範囲で頑張る人も要れば、諦める  人もいる。 会場Q: 英語と対比すると日本語は省略が多いと言われる。言語的に依存している  けれども、世界知識的な所で差が出ているのか、グラマーでは違いが無いけれ  ども、どこでその差が現れていると考えられるのか。 A: 全てを統一的に語ることはできないが、日本語の場合は動詞が最後にくる。  だから省略する方が理解しやすいというのはあるかもしれない。
    (T-d) 3月7日(月) 17:00〜18:30 司会:藤田篤(未来大)
    「言語生成研究の動向」徳永健伸 氏(東京工業大学)
    対話システムの応答をどう作るか。 株価/気象データといった(非)言語情報から生成。 テキストからテキスト生成するのも良い。 評価問題:正解がそもそも用意できない 言語生成のサブタスク  テキスト・プランニング:what to say   内容の決定、構造化  マイクロ・プランニング+表層化:how to say   語選択、集約、参照表現の生成   ad-hocになりがち。   参照表現は比較的問題が定式化しやすい。GRE等。 内容の構造化  一般的な形式化は困難  メッセージ集合を談話関係で構造化: e.g, 修辞構造理論RST→テキストプラン  プランニングに基づく構造化 参照表現の良さ  Incremental Algorithm  冗長すぎない方が良さそうだが、心理言語学的観点から見ると   ・「以外と冗長」 [Deutsch 1982]   ・文脈集合すべてを見ているわけではない [Pechmann 1989]   ・漸進的に作られる 評価  内生的評価/外生的評価  MTに近い側面もあるが、そもそも元の文自体が無い。  入力/出力/尺度/文脈/ベースラインは? 会場Q: 参照表現で、日本語に限って言えば、如何に単語を省略するかということ  があると思うが、そういうことはやられているのか。 A: 日本語で生成やってる人が殆どいないこともあって、殆どやられていない。 会場Q: 内生的評価/外生的評価にあまり相関が無いということが指摘されていたが、  割とくらい気持ちにもなるがどう捉えるべきか。どうすべきか。 A: 外生的評価をやるべき。ただし、コストが高い。 会場Q: 内生的評価のコストが低いなら、そこで頑張る方法もあるのか。 A: 理想としてはそうだが、解析やろうとしてる時点でだいたい「これが欲しい」  という目処が立っていることが多い。決めてしまえば他は見ないというやり方  もあり得る。ただし、それ以外が×かというと、フェアな評価とは言えない。  ちゃんとした使う環境で評価することが大切。 会場Q: CGだと生成も解析もどちらも大切なタスクとしてやられているが、  言語ではなぜそこまでやられていないのか。 A: 見栄えの問題が大きい。学生から見ても地味。視覚よりも更に違いが分かり  難いという側面もある。 会場Q: 意味表現が難しいとかそういうことも影響している? A: それも当然ある。対話と密接な関係があり、インタラクションしている中で  それをどう表現するのか等様々なタスクがあり、その先に何があるのか見え  難く、手を付け難いという敷居の高さがあると思う。
    更新ログ

    NLP2011で気になる発表タイトルをピックアップ→絞り込み失敗

    火曜日, 3月 1st, 2011

    言語処理学会第17回年次大会(NLP2011)で気になる発表をメモ。

    NLP年次大会への参加自体が初めてなんですが、当初予想してたより遥かに規模が大きい。ちょっとした研究会レベル(並列セッションあっても2,3で、1-2日終了するぐらい)を想像してたのですが、6並列*3日間+チュートリアル1日+併設ワークショップ1日とやらで合計5日間ぎっしり詰まる規模らしい。大きすぎるよw

    ということで、実際に話を聞くセッションを絞るために取りあえずリストアップしてみました。

    リストアップした結果、適当なセッションに突撃しても大抵興味がある話が聞けそうな雰囲気。こっち方面に足を踏み出したばかりだから興味が絞りきれてない気もしますが、ある一つの課題なりに絞ったとしてもそれを実現するためにあれもこれもと複合的に課題が山積みになりやすいテーマなだけかも。という気もします。

    全日程参加の方向なのは良いとして、どのセッションに参加するか悩むな。


    >3/7(月), チュートリアル
    (T-a) 3月7日(月) 11:00〜12:30 司会:高村大也(東工大)
    「強化学習の基礎と言語処理への応用」伊藤秀昭 氏(佐賀大学)

    (T-c) 3月7日(月) 15:15〜16:45 司会:高村大也(東工大)
    「Understanding sentences in Japanese」Edson T. Miyamoto 氏(筑波大学)

    (T-d) 3月7日(月) 17:00〜18:30 司会:藤田篤(未来大)
    「言語生成研究の動向」徳永健伸 氏(東京工業大学)

    (協賛ワークショップ)第5回音声ドキュメント処理ワークショップ
    13:00-14:00 特別講演 †
    「映像内容解析ならびに検索技術の最近の動向 -TRECVIDを中心として-」佐藤真一教授(国立情報学研究所)


    >3/8(火), 本会議第1日
    A1:知識獲得   3月8日(火) 09:30-12:10 A1-101教室  座長: 岡崎直観 (東大)
    A1-1 専門語彙を手がかりとした知識構成の展開ー生命科学分野を例にー
    ○浅石卓真, 影浦峡 (東大)
    A1-3 Wikipediaの編集履歴を用いた書き換えパターンの抽出
    ○金山博, 荻野紫穂 (日本IBM)
    A1-4 数式の網羅的な生成による新たな類似尺度の発見と評価
    ○皆川歩, 岡部正幸, 梅村恭司 (豊橋技科大)
    A1-6 意味的類似度を用いたWeb文書からの集合拡張
    ○萩原正人, 関根聡 (楽天)

    B1:Web応用   3月8日(火) 09:30-12:10 A2-101教室  座長: 吉岡真治 (北大)
    B1-3 大規模Web情報分析のための分析対象ページの段階的選択
    ○赤峯享 (NICT/NAIST), 加藤義清, 川田拓也, レオン末松豊インティ (NICT), 河原大輔 (京大/NICT), 乾健太郎 (東北大/NICT), 黒橋禎夫 (京大/NICT)
    B1-4 情報分析システムWISDOMのユーザ評価とその分析
    ○川田拓也 (NICT), 赤峯享 (NICT/NAIST), 河原大輔 (京大/NICT), 加藤義清 (NICT), 乾健太郎 (東北大/NICT), 黒橋禎夫 (京大/NICT), 木俵豊 (NICT)
    B1-6 Web文書の時間・論理関係分析に基づく情報信頼性判断支援システムの開発と実証実験
    ○岡嶋穣, 河合剛巨, 中澤聡 (NEC), 村上浩司 (楽天), 松吉俊, 水野淳太 (NAIST), エリック・ニコルズ, 渡邉陽太郎, 乾健太郎 (東北大), 渋木英潔, 中野正寛, 宮崎林太郎, 石下円香, 森辰則 (横浜国大)

    C1:テキスト・データマイニング   3月8日(火) 09:30-12:10 A1-201教室  座長: 新里圭司 (京大)
    C1-2 全部分文字列のクラスタリングとその応用
    ○岡野原大輔 (PFI)
    C1-3 類似論文からの関連用語抽出による論文検索支援システムの提案
    ○南浦佑介, 新美礼彦 (未来大)

    D1:音声言語処理   3月8日(火) 09:30-12:10 A2-201教室  座長: 秋葉友良 (豊橋技科大)
    D1-3 質問応答対の増加による精度低下及び速度低下を軽減する選択手法
    ○井上僚介, 黒澤義明, 目良和也, 竹澤寿幸 (広島市立大)

    E1:評判・感情解析   3月8日(火) 09:30-12:10 A1-301教室  座長: 木村俊也 (mixi)
    E1-3 評価文書分類における異言語翻訳データの利用法
    ○乾孝司, 山本幹雄 (筑波大)
    E1-6 Web上の誹謗中傷を表す文の自動検出
    ○石坂達也, 山本和英 (長岡技科大)

    F1:テーマセッション1: 複合辞とモダリティ:理論から応用まで   3月8日(火) 09:30-12:10 A2-301教室  座長: 泉朋子 (NTT)
    F1-2 伝聞のモダリティと文法化
    ○金城由美子 (長崎純心大)
    F1-6 代表・派生関係および用例を利用した日本語機能表現の解析
    ○鈴木敬文, 宇津呂武仁 (筑波大), 松吉俊 (NAIST), 土屋雅稔 (豊橋技科大)

    P1:ポスター(1)   3月8日(火) 14:30-16:00 A棟ホール
    P1-8 「本との出会い」を支援するシステム
    ○館野紅理奈, 浦谷則好 (工芸大)
    P1-11 Blenderを用いた自然言語による3次元コンピュータグラフィックス
    ○中畑敦夫, 伊藤秀昭, 福本尚生, 和久屋寛, 古川達也 (佐賀大)
    P1-12 意見の重要度と客観的補足情報を考慮したレビュー要約
    ○唯野良介, 嶋田和孝, 遠藤勉 (九工大)
    P1-13 直接調停要約自動生成システムHERMeSの言論マップとの連携
    ○石下円香, 渋木英潔, 中野正寛, 宮崎林太郎, 永井隆広, 森辰則 (横浜国大)
    P1-14 直接調停要約自動生成システムHERMeSの対比表現を用いた精度向上
    ○永井隆広, 渋木英潔, 中野正寛, 石下円香, 宮崎林太郎, 森辰則 (横浜国大)
    P1-15 文外照応を含む文の検出による抽出型要約の品質向上
    ○西川仁, 長谷川隆明, 松尾義博, 菊井玄一郎 (NTT)
    P1-16 テキストの内容を表す記述要素の自動生成手法の検討
    ○久保木武承, 山本和英 (長岡技科大)
    P1-17 検索要求顕在化のための「喩え」の利用
    ○久保真哉, 桝井文人 (北見工大), 福本淳一 (立命館大)
    P1-18 QAサイトにおける専門用語を用いた最適な回答者提示
    ○堀江将隆, 山本和英 (長岡技科大)
    P1-20 研究者および研究分野の変遷の自動推定
    ○堀さな子, 村田真樹, 徳久雅人 (鳥取大), 馬青 (龍谷大)
    P1-21 不具合事例からの因果関係抽出に向けた実体性のある名詞の抽出手法の検討
    ○大森信行, 森辰則 (横浜国大)
    P1-23 修辞ユニット分析からみたQ&Aサイトの言語的特徴
    ○田中弥生, 佐野大樹 (国語研)
    P1-24 回答の根拠を提示する意思決定支援型の質問応答システム
    ○佐々木智 (筑波大), 藤井敦 (東工大)
    P1-25 Q&Aサイトの回答から取り出した質問に書くべき情報の特殊さの推定
    ○谷口祐亮, 小島正裕, 西村涼, 渡辺靖彦, 岡田至弘 (龍谷大)
    P1-27 Web文書の時系列分析に基づく意見変化イベントの抽出
    ○河合剛巨, 岡嶋穣, 中澤聡 (NEC)
    1-31 マイクロブログにおけるユーザのクラスタリングとそのクラスタの特徴語抽出
    ○畑本典宣, 黒澤義明, 目良和也, 竹澤寿幸 (広島市立大)

    P2:ポスター(2)   3月8日(火) 16:30-18:00 A棟ホール
    P2-3 機械学習を用いた表記選択の難易度推定
    ○小島正裕 (龍谷大), 村田真樹 (鳥取大), 南口卓哉, 渡辺靖彦 (龍谷大)
    P2-7 日本語格解析において問題となり得る諸現象の定量的分析
    ○花岡洋輝, 松崎拓也 (東大), 宮尾祐介 (NII), 辻井潤一 (東大)
    P2-23 公的文書に対する「やさしい日本語」換言辞書作成のための調査
    ○杢真奈見, 山本和英 (長岡技科大)


    >3/9(水), 本会議第2日
    A2:言語学(1)   3月9日(水) 09:00-11:50 A1-101教室  座長: 黒田航 (京工芸繊大/早大)
    A2-6 語を構成単位としない統語論に向けて: パターン束モデルを用いた文構造記述の理論と応用
    ○吉川正人 (慶大/学振)

    B2:テーマセッション4: Twitterと言語処理   3月9日(水) 09:00-11:50 A2-101教室  座長: 東中竜一郎 (NTT)
    B2-2 マイクロブログの分析に基づくユーザの嗜好とタイミングを考慮した情報推薦手法の提案
    ○向井友宏, 黒澤義明, 目良和也, 竹澤寿幸 (広島市立大)
    B2-3 Twitterからの個人の行動に起因するトラブル予測システムの試作
    ○隅田飛鳥, 服部元, 小野智弘 (KDDI)
    B2-4 マイクロブログサービスの返信行動に着目した投稿及びユーザの分類
    ○黒澤義明, 竹澤寿幸 (広島市立大)
    B2-6 Twitterにおけるつぶやきの関連性を考慮した改良相関ルール抽出による話題抽出
    ○鈴木啓太, 新美礼彦 (未来大)
    パネル討論: Twitter情報を活用したサービスの現状と課題
    パネリスト 大角知孝 (NTTコミュニケーションズ) ,岡野原大輔 (PFI),榊剛史(東大),辻村浩(沖電気),横田真俊(Twitter解説書著者),西谷智広(Twitter研究会)

    C2:文書分類・要約   3月9日(水) 09:00-11:50 A1-201教室  座長: 高村大也 (東工大)
    C2-2 WEB上の言語資源に基づく国会議員の分類
    ○東宏一, 橋本悠, 掛谷英紀 (筑波大)
    C2-6 文書内の事象を対象にした潜在的トピック抽出手法の提案とその応用
    ○北島理沙, 小林一郎 (お茶大)
    C2-7 直接調停要約自動生成システムHERMeSの実装と性能評価
    ○中野正寛, 渋木英潔, 宮崎林太郎, 石下円香, 永井隆広, 森辰則 (横浜国大)
    C2-8 ラベル伝播による他言語資源の利用と転移学習を用いた重要文抽出システム
    ○天野禎章, 横山晶一 (山形大)

    D2:情報抽出(1)   3月9日(水) 09:00-11:50 A2-201教室  座長: 関洋平 (筑波大)
    D2-1 自動獲得した上位下位関係の詳細化
    ○山田一郎, 橋本力, 呉鍾勲, 鳥澤健太郎 (NICT), 黒田航 (京工繊大/早大), De Saeger Stijn, 土田正明, 風間淳一 (NICT)
    D2-2 共起語グラフのクラスタリングによる単語の多義性抽出
    ○鏑木雄太, 古宮嘉那子, 小谷善行 (東京農工大)
    D2-3 レビューからの商品比較表の自動生成
    ○相川直視 (早大), 山名早人 (早大/NII)
    D2-4 複数文にまたがる関係抽出における構文情報の効果
    ○三浦康秀, 外池昌嗣, 大熊智子, 増市博 (富士ゼロックス), 篠原(山田)恵美子, 荒牧英治, 大江和彦 (東大)
    D2-5 地方自治体の例規比較に用いる条文対応表の自動生成
    ○竹中要一 (阪大), 若尾岳志 (独協大)
    D2-6 数式検索のための数式周辺テキストの言語解析手法
    ○横井啓介 (東大), Nghiem Minh (総研大), 松林優一郎 (NII), 相澤彰子 (東大)

    E2:意味解析   3月9日(水) 09:00-11:50 A1-301教室  座長: 乾健太郎 (東北大)
    E2-2 動詞と名詞の連想に基づいた換喩解析法の提案
    ○寺岡丈博, 岡本潤, 石崎俊 (慶大)
    E2-4 段階的文脈拡張による多義性解消
    ○黒川勇輝, 新里圭司, 黒橋禎夫 (京大)

    P3:ポスター(3)   3月9日(水) 16:30-18:00 A棟ホール
    P3-4 語の共起を効率的に検索できる日本語作文支援システム「なつめ」の紹介
    ○阿辺川武 (NII), ホドシチェク・ボル, 仁科喜久子 (東工大)
    P3-6 作文授業における引用技術習得を支援する手法の提案
    ○山口昌也 (国語研), 北村雅則 (名古屋学院大)
    P3-7 作文支援システムを使った「引用」学習課題の導入と展開
    ○北村雅則 (名古屋学院大), 山口昌也 (国語研)
    P3-8 短答式記述答案の採点支援ツールの開発と評価
    ○中島功滋 (ベネッセ/CRET)
    P3-9 ホームページの多言語化に向けた機械翻訳とコミュニティによる後編集の活用
    ○相川孝子 (MSR), 井佐原均 (豊橋技科大)
    P3-10 汎用アノテーションツールSlate
    ○Dain Kaplan, 飯田龍, 徳永健伸 (東工大)
    P3-13 物語生成システムにおける物語言説機構の開発と評価
    ○秋元泰介, 小方孝 (岩手県立大)
    P3-31 議論熟練者による話し合いの評価に影響を与える言語行動の分析
    ○水上悦雄 (NICT), 森本郁代 (関西学院大), 大塚裕子 (IBS), 鈴木佳奈 (広島国際大), 柏岡秀紀 (NICT)
    P3-32 日本語フレームネットの全文テキストアノテーション: BCCWJへの意味フレーム名付与の試み
    ○小原京子 (慶大)


    >3/10(木), 本会議第3日
    A3:言語資源・コーパス   3月10日(木) 9:00-11:50 A1-101教室  座長: 河原大輔 (京大)
    A3-2 語彙概念構造による意味役割の形式化と複数役割の割り当て
    ○松林優一郎, 宮尾祐介, 相澤彰子 (NII)

    B3:生成・言い換え   3月10日(木) 9:00-11:50 A2-101教室  座長: 藤田篤 (未来大)
    B3-2 発表スライドの構造的・言語的解釈に基づく発話生成
    ○荒井翔真, 柴田知秀, 黒橋禎夫 (京大)
    B3-5 Web上の定義文からの言い換え知識獲得
    ○橋本力, 鳥澤健太郎, De Saeger, Stijn , 風間淳一 (NICT), 黒橋禎夫 (京大)

    C3:情報抽出(2)   3月10日(木) 9:00-11:50 A1-201教室  座長: 風間淳一 (NICT)
    C3-2 書評利用のレコメンデーションを目的とする書評検索システムのためのキーワード抽出
    ○越本和季, 酒井浩之, 増山繁 (豊橋技科大)
    C3-8 L1正則化特徴選択に基づく大規模データ・特徴集合に適した半教師あり学習
    ○鈴木潤, 磯崎秀樹, 永田昌明 (NTT)

    D3:機械翻訳(1)   3月10日(木) 9:00-11:50 A2-201教室  座長: 磯崎秀樹 (NTT)
    D3-1 階層的モデルを用いた機械翻訳のためのフレーズアライメント
    ○Neubig, Graham (京大/NICT), 渡辺太郎, 隅田英一郎 (NICT), 森信介, 河原達也 (京大)
    D3-4 A Term Translation System Using Hierarchical Phrases and Morphemes
    ○呉先超, 辻井潤一 (東大)
    D3-8 文書文脈を用いた翻訳精度、速度の改善
    ○大西貴士, 内山将夫, 隅田英一郎 (NICT)

    E3:テーマセッション2: 不自然言語処理 枠に収まらない言語表現の処理(1)   3月10日(木) 9:00-11:50 A1-301教室  座長: 村上浩司 (楽天)
    E3-3 「不自然言語処理コンテスト」第1回開催報告
    ○萩原正人 (楽天), 大原一輝 (フリー), 水野貴明 (バイドゥ), 橋本泰一 (東工大), 荒牧英治 (東大), 竹迫良範 (サイボウズ)
    E3-4 ウェブからの疾病情報の大規模かつ即時的な抽出手法
    ○荒牧英治 (東大), 森田瑞樹 (医薬基盤研究所), 篠原(山田)恵美子, 岡瑞起 (東大)
    E3-5 データ圧縮率を用いるテキストアート抽出法におけるテキストの正規化手法
    ○鈴木徹也 (芝浦工大)
    E3-6 感情推定における若者言葉の影響
    ○松本和幸, 任福継 (徳島大)
    E3-7 教師付き外れ値検出による新語義の発見
    ○新納浩幸, 佐々木稔 (茨城大)
    E3-8 定型から逸脱した言語表現の分析
    ○土屋智行 (京大/学振)

    F3:情報検索   3月10日(木) 9:00-11:50 A2-301教室  座長: 鶴岡慶雅 (JAIST)
    F3-3 特許の先行技術調査における集合知の循環
    ○橋田浩一 (産総研), 藤井敦, 岩山真, 橋本泰一 (東工大), 乾孝司 (筑波大), 難波英嗣 (広島市立大)
    F3-7 Toward Evidence Search
    ○Nichols, Eric (東北大), Mizuno, Junta (NAIST), Watanabe, Yotaro, Inui, Kentaro (東北大)
    F3-8 共著者ネットワークによる書誌検索の高度化
    ○野本忠司 (国文研)

    A4:語彙・辞書   3月10日(木) 13:00-15:30 A1-101教室  座長: 影浦峡 (東大)
    A4-5 オノマトペを言い換える表現の自動収集
    ○古武泰樹, 佐藤理史, 駒谷和範 (名大)
    A4-6 Wikipediaからの大規模な汎用オントロジー構築
    ○柴木優美 (長岡技科大), 永田昌明 (NTT), 山本和英 (長岡技科大)

    B4:対話・文脈処理   3月10日(木) 13:00-15:30 A2-101教室  座長: 駒谷和範 (名大)
    B4-1 POMDPを用いた聞き役対話システムの対話制御
    ○目黒豊美, 東中竜一郎, 南泰浩, 堂坂浩二 (NTT)
    B4-2 対話型e-Learningシステムの開発
    ○峯脇さやか (弓削商船高専), 嶋田和孝, 遠藤勉 (九工大)
    B4-3 共通状態と連結学習を用いたHMMによるコールセンタ対話の要約
    ○東中竜一郎, 南泰浩, 西川仁, 堂坂浩二, 目黒豊美, 小橋川哲, 政瀧浩和, 吉岡理, 高橋敏, 菊井玄一郎 (NTT)
    B4-4 コールメモを利用したコールセンタ向け音声対話要約方式の提案
    ○田村晃裕, 石川開 (NEC)
    B4-5 Toward Plan Recognition in Discourse Using Large-Scale Lexical Resources
    ○Naoya Inoue (東北大/学振), Kentaro Inui (東北大)
    B4-6 視線情報を利用した協調作業対話における参照解析
    ○安原正晃, 飯田龍, 徳永健伸 (東工大)
    B4-7 直接照応解析における分野情報および文脈情報の有効性検証
    ○浜田伸一郎, 齋藤佳美 (東芝ソリューション)

    C4:テーマセッション3: 日本語入力における言語処理(1)   3月10日(木) 13:00-15:30 A1-201教室  座長: 鈴木久美 (MSR)
    C4-1 病理診断報告書作成のためのオントロジーを利用したテキスト入力支援
    ○橋本泰一 (東工大), Tam, Wailok (東大), 鷹合基行 (富士ゼロックス), 荒牧英治, 宇於崎宏 (東大), 橋田浩一 (産総研)
    C4-5 大規模日本語ブログコーパスにおける言語モデルの構築と評価
    ○奥野陽, 颯々野学 (ヤフー)

    D4:機械翻訳(2)   3月10日(木) 13:00-15:30 A2-201教室  座長: 隅田英一郎 (NICT)
    D4-3 二部グラフ上のランダムウォークによる言語横断関連語の抽出手法
    ○ルディー・レイモンド, 坪井祐太 (日本IBM), 張耀中 (東大), 那須川哲哉 (日本IBM)
    D4-4 構造を持った定型表現の自動獲得と機械翻訳での利用
    ○望月道章, 中澤敏明, 黒橋禎夫 (京大)

    E4:テーマセッション2: 不自然言語処理 枠に収まらない言語表現の処理(2)   3月10日(木) 13:00-15:30 A1-301教室  座長: 荒牧英治 (東大)
    E4-1 テキストに基づく違法有害記事の削除作業支援方式
    ○笠原要, 藤野昭典, 永田昌明 (NTT)
    E4-4 Web上の多彩な言語表現バリエーションに対応した頑健な形態素解析
    勝木健太 (京大), 笹野遼平 (東工大), ○河原大輔, 黒橋禎夫 (京大)
    E4-5 大規模添削コーパスを用いた統計的機械翻訳手法による日本語誤り訂正
    ○水本智也, 小町守, 松本裕治 (NAIST)
    E4-7 分布類似度判定における文脈の特徴量の比較と評価法に関する研究
    ○増山篤志, 梅村恭司, 岡部正幸 (豊橋技科大)

    F4:言語学(2)   3月10日(木) 13:00-15:30 A2-301教室  座長: 小磯花絵 (国語研)
    F4-4 比喩表現に属性が明示された場合の比喩性に与える影響とコンピュータモデルの検討
    ○田添丈博 (鈴鹿高専), 椎野努 (愛工大)

    A5:教育応用   3月10日(木) 15:50-18:20 A1-101教室  座長: 田中久美子 (東大)
    A5-1 学習指導要領に立脚した児童作文自動点検システムの実現
    ○藤田彬, 田村直良 (横浜国大)
    A5-3 翻訳教育向け「みんなの翻訳」
    ○影浦峡 (東大), Thomas, Martin (Leeds大), 阿辺川武 (NII), 内山将夫, 隅田英一郎 (NICT), Hartley, Anthony (Leeds大)

    B5:構文解析   3月10日(木) 15:50-18:20 A2-101教室  座長: 渡邉陽太郎 (東北大)
    B5-4 木構造に基づく決定的係り受け解析
    ○北川浩太郎, 田中久美子 (東大)
    B5-6 ベイズ学習による木接合文法獲得
    ○進藤裕之, 藤野昭典, 永田昌明 (NTT)

    C5:テーマセッション3: 日本語入力における言語処理(2)   3月10日(木) 15:50-18:20 A1-201教室  座長: 工藤拓 (グーグル)
    C5-4 頻出文脈に基づく分野依存入力支援
    ○海野裕也, 坪井祐太 (日本IBM)

    E5:テーマセッション2: 不自然言語処理 枠に収まらない言語表現の処理(3)   3月10日(木) 15:50-18:20 A1-301教室  座長: 竹迫良範 (サイボウズ)
    E5-1 並列疑似エラー補正法に基づく「破格」な言語表現の(疑似)解釈
    ○黒田航 (京工繊大/早大)
    E5-2 誤字脱字や伏字を許容する近似辞書照合技術
    ○齋藤邦子, 今村賢治, 松尾義博, 菊井玄一郎 (NTT)
    E5-3 評判情報の検索における隠語の生成と順位付け
    ○太田裕貴, 藤井敦 (東工大)


    >3/11(金), 併設ワークショップ
    ワークショップ: 「自然言語処理における企業と大学と学生の関係」
    ホームページ: http://nlp.cs.nyu.edu/gengo2011ws