Archive for the ‘学会’ Category

言語処理学会第19回年次大会(NLP2013) 3日目(最終日)終了

金曜日, 3月 15th, 2013

m_201303151455365142b7d8dde59

NLP2013の本会議3日目が終了しました。これで年次大会が終了です。来年2014年4月には20周年になるらしく、次回の年次大会等で記念イベント的なものを盛り込む予定とのこと。

今日のスケジュールは、一般セッションx2回にポスターセッションx2回。今回は口頭発表とポスター発表の割合がほぼ同等になっていて、並列度が高いです。見たい発表をあれこれ見て回れるし、直接討論しやすいので個人的には良いですが。昨日体調崩していた学生もそれなりに回復できたようで、ポスターセッションにも参加できたらしい。

今日の発表の中で個人的に面白かったのは、RSTチックな依存構造木に基づいて文章間構造を加味して要約を生成する話、入力文そのものと別途用意した教師データを同時学習するオートエンコーダの例、多職種が集まった長期間のミーティングログ分析してみた話、政治家のプロジェクト毎の参画度合い抽出したいという話、動的変化する文章における「差異の小ささ(多くは同じまま)」を利用した問題定式化あたりです。

終了後は学生の興味半分的なリクエストに答えてマウンテンへ。個人的には10年ぶりぐらいで、前回の雪辱を晴らして無事に下山できましたw

以下、自分が聴講した発表に関するメモです。例によって私の理解不足で解釈誤りが多々含まれている可能性がありますので、ご注意ください。


目次


A5:要約, 座長: 西川 仁(NTT)


A5-1 談話構造に基づく単一文書要約 (pp.492-495), ○平尾努, 西野正彬, 安田宜仁, 永田昌明(NTT)

従来:文書は文/節/句といったユニット(have: 長さ,重要度)集合とし、最適化問題に落とし込む。
今回:ユニットの依存木とし、最適化問題に落とし込む。
 RSTによる談話木をユニット間依存の談話木(DEP-DT)へ変換するルール
  RSTの問題点:依存関係が陽には定義されていないEDUの組み(離れたEDU組み等)がある
  要約しやすいように変換:SはNを修飾することに基づき、親兄弟を利用
   依存構造木の生成
   トリミング(=制約付きナップサック問題)により要約生成:木構造制約の導入
   EDUのスコア調整
    重いノードが下にいると縦に要約作成してしまう
    要約という視点からは幅優先にしたい

naltoma: DEP-DT自体はどう生成する?
naltoma: DEP-DTによる依存構造木そのものの適切さはどのように評価できる?


Q: ラベルを一切使っていないとのことだが、RSTは木構造だがむしろラベルの方が重要だと思う。
 依存構造に変換した際にラベルをどう解釈するのか、ラベルは適切に付くのか、
 物語と節の関係が本当に正しいのか。元々のテキストが主張していないような
 論理的な関係が作られてしまわないか。
A: ラベルについては、依存構造木の末端から一度上がる箇所では確定。
 その後の遡りについてはおかしくなる可能性がある。
 ラベルについては必要ないのではというスタンス。

Q: 先行研究ではウェイトを使っていないようだが、
 提案手法ではウェイトを依存構造利用して調整せずに解いたらどうなるのか。
A: ほぼ一緒になると思うが、サテライトの使い方が違う。

Q: ツリーに変換した際にROUGEのスコアが決まりそうだが、どうなる?
A: 今やっている所。

Q: 変数としてILPの規模は?
A: バイナリ変数が100〜200。そこそこ大きい。
Q: 接続詞とかの制約付けると、問題として面白くなると思う。

Q: 自動的にRSTそのものではなく依存構造を分析するとのことだが、
 見込みとしてはどのぐらいの精度?
A: ツリー全体になるとはズレが多いと思うが、
 直接的な関係は7割ぐらいいけるんじゃないかと想像。


A5-2 断片数制御を取り入れた組合せ最適化による部分文抽出 (pp.496-499), ○安田宜仁, 西野正彬, 平尾努, 永田昌明(NTT)

抽出による方法 vs 生成による方法
抽出:重要文抽出が愛されている
 もっと短い要約を作りたい:「文」単位では大きすぎる(e.g., 検索スニペット)
 スニペットにも組み合わせ最適化のパワーを
 文より小さい単位(部分文)での抽出+過度な断片化の抑制
  部分文(文中の連続した単語列)を抽出したい

バイグラムを概念単位とする最大被覆問題で、制約付き線形計画問題として解く
 連続した語の表現:文内の各語について「個々から開始」「ここで終了」のためのニ値変数準備
 バイグラムの表現
 制約:各文から選択される部分文は高々1個

見方によっては「文抽出+文生成を同時にやってる第3の方法」
 問題意識
  ROUGEの弱みに付け込んでる?
  他の適切な自動評価?
  厳密解にこだわる必要性?

naltoma: 最後に述べられてた問題意識には同感。
 もう少しインタラクティブにするか、もう少し具体的な要求を加えるとか、
 「論理的に解く」レベルに制約加えた方が「欲しい要約」に近づくんじゃないのかなぁ。


Q: 実例で、今回の手法で有り難みが感じられる例があれば。
A: スニペットを想定。眺めてみると、一例として、
 良い感じの文から大量に取ってきて、
 他からががっと断片的に取りまくるようなのがあり、酷い。

Q: 部分文制約がないと現実的な時間で動かないというのは分かるが、
 その制約があると、文圧縮したのを複数個用意して最適化問題として選んでいく
 方法で良いのでは?
A: 結果的にそうなっており、仰る通りだと思う。
 任意の両端から切った文を用意して、制約ありで解く方がちゃんと解けるならそっちの方が良いと思う。
 比較しないと分からないが、スピード面では提案手法が有利かもしれない。

Q: バイグラム与えてしまうと名詞をばりばり取るような印象を受ける。
 モダリティを無視してるように思うが、作成される要約は適切か?
A: 大変問題。ただし、目的としてスニペット程度の生成だが、
 要約文としての適切さについてはその後の調整次第でどうにでもなると考えている。


A5-3 劣モジュラ最大化アルゴリズムを用いた文抽出と文圧縮に基づくクエリ指向要約 (pp.500-503), ◎森田一, 笹野遼平, 高村大也, 奥村学(東工大)

ユーザの要求により簡潔で素早く応答できるサービスのため、文抽出+文圧縮
 同時にやることで不要な部分を除外しつつ、必要な部分を選択できる
 複数文の部分木構造から、欲しい部分木をマージして要約生成
  整数計画問題は大規模になると解くことが困難
   submodular maximizationではグリーディに解くことで近似解を得られる

naltoma: この発表に限った話じゃないけど、
 「要約」を作る時は「何のために」とか「誰向けに」みたいな状況設定が
 必要な気がするけど、ベンチマーク的に用意されてる問題ではどのような背景で解が
 用意されているのだろう。問題次第とは思うけど、アプローチ側にそういう背景が
 出て来ないのが気になる。


Q: 比較結果で複数提示されているが。
A: 提案手法、圧縮無し、生成文から長さを無視して元の文を復元した際のrecallを比較。

Q:
A: 選んだ単語に対して減衰させていくため、厳密には整数計画問題として解くことができない。

Q: submodularを導入した動機は速度だと思うが、実際の速度は?
A: 真面目に早くなるようには書いていないが、
 2000文でKNPとかを除いて1,2分レベル。

Q: 同時に実行するという話があったが、
 網羅的に部分木を用意して選択することでも同時にやってることと同質では?
A: 全てを用意することができるなら同じだが、全て列挙すること自体が困難。
 冗長性とかを考慮することで必要なものが変わってくるので、
 同時に解く方が望ましいと考えている。


A5-4 トピックを考慮したグラフによる複数文書要約への一考察 (pp.504-507), ◎北島理沙, 小林一郎(お茶大)

複数文書要約(グラフ)+潜在トピックに基づいた文書処理(LDA)
 LexRankにトピックの概念を導入:文同士の類似度に、トピック分布類似度を考慮
 冗長性を削減するために表層的な情報を用いる:MMR (Maximal Marginal Relevance)

naltoma: ROUGE-1値で小数点第二位〜第三位での改善はどのぐらいの改善に相当?
naltoma: トピック分布類似度を考慮した方が良いとのことだが、
 考慮度合いが少し(α=0.1〜0.4)だと逆に下がってしまうのは何が原因?
naltoma: 単位を文ではなくより短い部分文、もしくはもう少し大きい単位で
 トピック分布類似度するとどうなる?


Q: トピック分布にLDA使ってるとのことだが、文単位ではどう処理している?
A: θは文書単位で求めた。
 文に含まれる単語に対するトピック分布の平均分布として算出。

Q: トピックを使った要約という時、どういう選択肢があり、何故グラフを用いたのか。
A: グラフにすることで文と文の関係を分かりやすく出力できると考えた。
 グラフに基づいた要約手法の中でトピックを導入したものがなかったのでトライ。
Q: 直感的にどういう性質の要約ができることを期待している?
A: ユーザによって書き方が違っても、トピックとして広く取ることである程度
 まとまった要約ができることを期待している。

Q: 別データも今後使いたいとのことだが。
A: レビューを想定。
Q: DUCは新聞データだが、新聞記事だと語彙的重なりがあって、
 同じような単語があると重みが被ってくれる。レビューだと
 スパースになる点を検討した方が良いと思う。


A5-5 Webニュース記事本文を利用した見出し文の意味具体化手法 (pp.508-511), ◎芋野美紗子, 吉村枝里子, 土屋誠司, 渡部広一(同志社大)

人間のパートナーとしてのロボット、円滑なコニュニケーション能力の必要性
人間らしい会話:能動性を感じるもの
 ロボット側からの話題提供:リソースとしてWebニュースの見出し
 見出し文の意味具体化:具体的な情報の追加+自然文への変換
  見出し文解析:分割とテーマ解析+動詞の解析+助詞追加+格解析
  意味具体化:動詞の追加+When/Whereの追加+Whoの置換
   概念ベース:語を「属性(別の語)、重み」の組み集合で機械的に構築

naltoma: 目的にマッチさせるなら素直に本文から重要文抽出する方が良さそうなイメージ。


Q: 作成例の「イスラエル云々」の例は何が問題だった?
A: 「発射実験する」という表現が日本語として不自然じゃないかという人がいた例。
 多数決で揺れ動きはあるが、意外と厳しめの評価と感じている。

Q: 見出しから作るなら、本文で補完する方が楽では?
 そういう可能性を考慮した上で、提案手法を選択した理由は?
A: 要約する時に見出し文が分かりやすく短くしてくれてるからそれを利用したいという
 ところから始まっている。動詞表現については確かに本文から取ってきた方が良いかと思う。
 ただし、Who格置換はオリジナル。

Q: 要約だと考えると、圧縮率はどのぐらい?
A: 圧縮率の算出はしていない。
 圧縮した情報だと思っているのは本文を圧縮したら良いとは考えている。

Q: 概念ベースは何を使っている?
A: 概念ベースで語を定義することで使える関連度計算を使っている。
 Who格置換に利用。


P3: ポスター(3)


P3-4 機械学習を用いた同義語の使い分け (pp.584-587), 強田吉紀, 村田真樹, ◎三浦智, 徳久雅人(鳥取大)

話を聞く前は数え方(一杯を数えるところを一つとも数えることができる)みたいな、どちらでも使える同義語を使い分けるのかと思ってました。実際には「誤った使い方」を使い分けたいという話らしい。基本的にはEDR辞書を使った素性(品詞がメインぽい)を使っているのですが、数十個(50以上?)まとめて使っているようで、どれが一番効いているのかは良く分からず。揃えたデータセットに対しては比較的良好な精度で分類できているようで、適用範囲を広げていきたいとのこと。


P3-5 パターンと機械学習による冗長な文の修正と修正のヒント出力 (pp.588-591), ◎都藤俊輔, 村田真樹, 徳久雅人(鳥取大), 馬青(龍谷大)

「冗長」というのもケースバイケースかなと思うんですが、「論文」ぐらいを想定しているのかしら。今回は、冗長パターンとなりやすい例として「可能」が含まれる文を収集し、人手で修正。修正前後のdiffから修正パターンをあれこれ構築するというのが「パターン」側の話。機械学習では修正前後の文を「パターン毎に分類器を構築して判定」するっぽい。もう少し上手いやり方がありそうだけど、その場では思いつかず。


P3-6 パターンと機械学習を用いた大規模テキストからの変遷情報の抽出と分類 (pp.592-595), ◎堀さな子, 村田真樹, 徳久雅人(鳥取大), 馬青(龍谷大)

個人的にかなり気になっていた発表の一つ。「変遷情報」という言葉から「ある人/モノ/事象に着目した時の年表的なもの」を想像していたのですが、実際には「特定のモノ」は想定していないっぽい。なので、抽出される変遷情報は「いろんな対象物が時の推移と共に何かしら変化するもの全般」になってて、それがあまりにも多種多様で分類を検討するのに苦労しましたという話。変遷する対象も変遷内容も問わないので、特に何かしら絞り込む工夫も必要としてないという意味では楽だったように思いますが、その分収集されるデータの収拾は大変だよね。うまく体系化してから個別に対策練るという方針かなとは思います。


P3-11 オートエンコーダにおける単語ベクトルの学習 (pp.612-615), ◎島岡聖世, 山本風人, 乾健太郎(東北大)

NNで入力と出力を同一にして学習させることで「入力を圧縮(近似)した中間層」を得られるというオートエンコーダについて、入力データとは別に教師データを用意する場合、用意しない場合とでどのような圧縮結果が得られるかを単語ベクトルの例で調査してみたという話。言語モデルなりの教師データをうまく追加してて、特徴ベクトルそのものの近似学習と潜在的な意味(=言語モデル)を同時に学習できるようにしている点がウマい。勿論、そこで与えた教師データに引きずられた近似になるんだろうけど、そこは何かしら引っ張ってやらないと「使いたい特徴を反映しにくい(運任せ)」になっちゃうだろうし。NNの構造&教師データの与え方はもうちょっと工夫できそうな気もします(なんとなく)。


P4: ポスター(4)


P4-3 多職種ミーティングにおける懸念導入表現「気になる/するのは」の多角的分析(pp.658-661), ○高梨克也(JST/京大)

いろんな語彙や知識について共通認識が少ない(=多職種)状況下で何かしら共有ゴールを見出しタスクを解決するに至るまでの、比較的長期&多数回のミーティングが対象で、「気になる/するのは」という言い方が耳に残ったので様々な観点から分析して見ているという話。最終的にはミーティングの支援を想定しているらしいが、今回は分析がメイン。基本的には全参加者がフラットな関係で、一部企業側リーダー的存在の人がまとめる時に「我々が気になるのは」みたいに主体を複数人にして自分らの主張をするために用いていたのが、ある程度互いの共有認識が取れてくると同じような言い回しでも相手のことを気遣った内容(本当にこれで進めて大丈夫?とか)に言及するようになるとか。「気に」でgrep検索するだけでも8割ぐらいの精度で関連箇所を特定できるし、その箇所で論点の推移などが見れて面白そう。


P4-14 情報科学論文からの意味関係抽出に向けたタグ付けスキーマ (pp.702-705), ○建石由佳(NII), 仕田原容(フリー), 宮尾祐介, 相澤彰子(NII)

論文全体(今回はアブスト対象らしいが)を網羅的に全てタグ付けしようという話。アブストで体系化&アノテーションしてみる限りでは割と揺れも少ない体系が作れたらしい。ただ、文間の意味関係は対象外っぽいように見えました。(違うかもしれないけど)


P4-21 何日目日記: 時間経過を揃えたソーシャル日記システムと時間特徴マイニング (pp.729-732), ◎粟飯原俊介, 中谷洸樹, 田中久美子(九大)

何かしら既存のソーシャル・ネットワーク上でのデータから時間経過を意識してデータ収集するという話なのかと思ったら、そういうサービスをあるものとして解析しましょうという話。


P5: ポスター(5)


P5-4 論文作成支援のための学生論文における不適切な表現の分析 (pp.753-756), ◎尾崎遼, 村田真樹, 都藤俊輔, 三浦智, 徳久雅人(鳥取大)

修正前後の文をdiffして学習用データを構築し、修正パターンを5種類ぐらいにカテゴライズして分類学習させようという話。気持ちはとっても良く分かる。


P5-6 『複合動詞レキシコン』ver.1 —形態的・統語的・意味的情報付与— (pp.761-764), ○神崎享子(豊橋技科大)

賑わってて聞けなかったのだけど、ポスターによると公開を予定しているらしい。


P5-10 意味関連辞書構築のための単語間関連度収集手法の検討 (pp.777-780), ◎後藤慎也, 鈴木良生, 田添丈博(鈴鹿高専)

「名詞-形容詞」という連続した単語間の関連度を求めることが目的で、素朴に自動収集すると不適切なデータまで集めてしまうから人手でやりましょうという話らしい。ゲーミフィケーション的に取り組みやすくさせることを想定しているみたいだけど、う、うーん。


P5-12 意味検索結果からのキーワードによる絞り込み効果の評価 (pp.785-787), ○大倉清司, 潮田明(富士通研)

クエリを自然文入力とする検索を想定していて、従来は自然文入力されても単語分割してAND/OR検索+αぐらいとしてるのが多いところ、クエリの意味構造を解析して検索に役立てようという話。ただ、その意味構造部分(中間言語)にどう変換してるかはATLASの内部機能を使っているという話で済ましちゃってて良く分からず。


P5-15 語彙的連鎖を用いた調停要約生成手法の提案 (pp.794-797), ◎朱丹, 渋木英潔, 森辰則(横浜国大)

調停するための要約生成について、これまでだと「その話題には無関係なノイズ」まで含めてしまうことがあったので、4種類の語彙的連鎖(肯定的繋がり、否定的繋がり、トピック的繋がり、特殊表現繋がり(?))を使うことで取り除けないかトライしてみたという話っぽい。ただ、その繋がりをどう見つけて、どう活用しているかという部分は良く分からず(私が理解できなかっただけだとは思う)。


P5-18 Twitterにおける話題語の抽出と周期に基づく分類 (pp.806-809), ◎佐々木謙太朗, 田村一樹, 吉川大弘, 古橋武(名大)

常態的な特性(夜はツイート数が増えるとか)を除外し、指定したタイムウィンドウを範囲とする周期的な話題を分類できるようになっているようにも見えるのだけど、一般的な周期特徴抽出と比較してどうなのかが分からず。提案手法のメリットも主張していたのだけどメリットに聞こえなかったので。


P5-20 他者のコメントの引用を考慮したオピニオンマイニング (pp.814-817), ◎岡山有希, 白井清昭(JAIST)

ブログでは「他者のコメント」を引用した上で意見を主張していることが少なくなく、その引用部分に引きずられて全体のネガポジ判定が失敗することがあるとのこと。そこで、引用部分を判定&削除してから意見部分のみを対象とすることでネガポジ判定を改善しようという話らしい。


P6: ポスター(6)


P6-4 談話レベルの推敲支援のための人手修正基準 (pp.830-833), ○飯田龍, 徳永健伸(東工大)

「談話レベル」とありますが、小論文とか新聞記事とかぐらいの何かしら推敲しながら書かれた文章を想定しているっぽい。人手修正データを集めるために専門家に依頼しても「助詞の修正」とか細かい修正に留まることが少なくなかったので、談話単位に分割して依頼することで「談話単位での入れ替えといった文章構造」についての修正データも用意できたとのこと。その修正データから体系化してみている段階らしい。


P6-11 サポートベクターマシンに基づくHit Miss Networkを用いたインスタンス選択(pp.858-861), ◎小幡智裕, 佐々木稔, 新納浩幸(茨城大)

インスタンスというのは学習用データのことらしい。データ件数が多すぎると学習コストが大きいので、精度を落とさず事例数減らしたいよねというのが動機のようで、何を減らすかをあれこれ試している所らしい。先行研究と比較して良くなっている(うまく精度保ったまま事例を減らせている)のだけど、検証しているデータ数自体が数百件レベルでそもそも減らす必要も無さそうなので、「BigDataとか必要ないんじゃない?」みたいな所で検証して欲しい気もしますw


P6-15 地域政治情報コーパスへの賛否の積極性に関する注釈作業 (pp.874-877), ◎筒井貴士, 我満拓弥, 渋木英潔(横浜国大), 木村泰知(小樽商大), 森辰則(横浜国大)

「ある事例にどのぐらい関わっているかを知りたい」みたいな動機で始めているらしく、最初は単純に「賛否」ぐらいで捉えていたがそれでは不十分で、賛成については「どのぐらい積極的に関わっていたか」まで見れないと政治家毎の比較が十分にはできないとのこと。また、議事録からは9割ぐらいが賛成なので、反対しているものを高精度で検出することも必要とのこと。


P6-16 「CD-毎日新聞データ集」に含まれるデータの特徴について (pp.878-881), ○長谷川守寿(首都大)


P6-17 潜在的意味を考慮した効果的な適合フィードバックへの取り組み (pp.882-885), ◎芹澤翠, 小林一郎(お茶大)

短いクエリでうまく絞り込むために使われる事が多い適合フィードバックよりも高精度化の手法を目指して、潜在的意味(LDA)を考慮した再ランキングしてみたという話っぽい。リランキングの話をあちこちで見かけるけど、インタラクティブに数回繰り返すうちにユーザの目的が変化してくることを想定しているものはないような気がする。暗黙的に固定したままで問題にならないのかなぁ。


P6-22 音声対話およびTwitterにおけるユーザのパーソナリティ自動推定 (pp.900-903), ◎藤倉将平(早大)

文毎にBigFive尺度(外向性/神経症傾向/開放性/調和性/誠実性)について自動分類してパーソナリティを構築したいという話っぽいのだけど、話や討論を聞いている限りではどうやってデータを用意しているのかが分からず。


A6:形態素解析, 座長: 笹野 遼平(東工大)/h2>


A6-1 動的変化する文章を対象とした自然言語解析に適した解析アルゴリズムの考案 (pp.904-907), ◎鈴木潤, 永田昌明(NTT)/h2>

解析法(デコーディング)の話
 文章入力->文分割/節分割等
 動的なデータ、編集途中の文章:適宜変化するような状況(e.g., リアルタイム文章構成システム)
 生テキストからのいくつかの自然言語解析問題の同時解析
  整数計画問題で定式化:汎用的な開放の特性をウマく活用したい
   時刻t-1から時刻tへは基本的に「挿入/削除」
   時刻t-1と時刻tの文章の大部分は同一
   各時刻tにおける整数計画問題Ptとして記述
    PtとPt-1は最適化変数と制約の大部分が重複:いくつかの変数/制約が追加/削除された問題

一つずつをウマく解きたいのではなく、全体として効率良く解きたい
 双対分解に基づく解法の特性が使えるかも?
  部分問題に分解して解を得る解法、最適化中の変数の増減に対応可
   時刻tになっても続いていると看做す
   解きやすい問題を先に解くことで他の計算が楽になる
   メッセージパッシング的に「さぼるか否かフラグ」を設定

naltoma: 動的に変化するものの、一部分だけの変化だよねという点をうまく使っているという印象。
 タイピングに限らず「機械的に待ちが発生する状況」では割と汎用的に使えそうなアプローチ。


Q: 日本語入力では1文字ずつ変換候補出す時に役立ちそう。
 毎回辞書適用してて問題無い。応用面で本当にシビアな話なのか?
A: 同じ問題意識も感じていて、全てが早ければそれで良いかもしれない。
 今回は文章単位でやっているが、なるべく局所的な単位で済ませたい。
 計算機早くなればなるほど人間の入力には追いつけるので、
 実際何に使うかは考えている所。
 アルゴリズム的には全部やり直すのは勿体無いというところへの寄与はあると思う。

Q: ミソとしては1ステップで削除とかしてるとさぼれる所が多いところだと思うが、
 削除と追加を3ステップとかもう少し増やすとどうか。
 さぼれる所が増やせつつ、精度担保できたりとか。
A: この問題自体が若干スパースで、スキップしたらするほど早くなる可能性がある。
 数ステップ見るというのはそれが向いている処理がありそう。


A6-2 翻字と言語モデル投影を用いた高精度な単語分割 (pp.908-911), ○萩原正人, 関根聡(楽天)/h2>

複合語と翻字:例、ブラキッシュレッド
 人間の場合、英語知識(英語言語モデル)があれば暗黙的に英語に置き換えて正しさで判断
 翻字と言い換えを利用
  問題点
   オフライン手法:言語資源を更新し続ける必要
   文字種(片仮名)に依存:中国語に適用不可能

オンライン手法の提案:単語分割と同時に未知語を処理
 言語モデル付加:原言語における頻度を利用, f(ブラキッ), f(シュレッド)
 言語モデル投影:翻字+対象言語における頻度


Q: ゼロ頻度の問題は?
A: ゼロのまま扱っている。
Q: 既存の所で単語分割できていないものにはあまり効かないのでは?
 言語モデル投影については影響が少ないかもしれないが。
A: 投影の方は、翻字モデルの設定、英語言語モデルにも依存している。
 そのため、広く拾ってくれることを期待している。

Q: JUMANの方が強かったとのことだが、レキシコンをデフォルト値でも負けるということは、
 レキシコン頑張って揃えた方が良いのでは。組み合わせで頑張ろうとする動機は?
A: 実際にはそうだと思う。レキシコンの量が一番効いてくる。
 限定的に使ったり、解析していくうちで未知語が多そうな場所があれば解析する
 というような部分的な適用を想定している。

Q: 翻字が複数ある場合は?
A: 全部考える。
Q: 学習時に間違ってしまうことは?
A: 学習文に対して正しい翻字が付いていないので、スコアが高いものを正解としている。
 そこが間違うと誤った重みを学習してしまう。


A6-3 UniDic2: 拡張性と応用可能性にとんだ電子化辞書 (pp.912-915), ○小木曽智信(国語研), 伝康晴(千葉大)/h2>

使いやすくなったUniDic2の紹介
 斉一な単位(短単位)による解析、柔軟な見出し付与が可能、音声研究に利用(アクセント付与可能)等
  データの可読性を高める:基本情報と付加情報に分割
   UniDic-XML、UniDic-Tools


Q: XMLデータについて、実際に出現したコーパスが一例でも付いてると嬉しいが、どうか。
A: 付いていないが、付加情報として別途用意する形での公開は可能。
Q: 平仮名と漢字のような表記揺れにはどう対応する?
A: 対応可能。
Q: 同じ表記で異なる場合には対応できる?
A: そこまでは対応できない。
Q: 「@」に読みはないのか。
A: 語彙素読みと発音読みを用意している。
 補助記号については読みを与えないというスタンスで構築しているため、
 ユーザ側で付与して欲しいと考えている。

Q: XMLを自分で書いていくのはエンドユーザでは難しい。
 元々人間が書くものでもない。Webサービスなり何か書きやすくするとか、
 シェアできるようにするような予定は無いか。
A: できたら素晴らしいと思う。
 年度内に辞書データを外に出すことを検討している。
 何でも追加してしまうと体系が崩れてしまうこともある。


A6-4 絵本のテキストを対象とした形態素解析 (pp.916-919), ○藤田早苗, 平博順, 小林哲生(NTT)/h2>

なぜ絵本か?
 幼児への入力の一つ(読み聞かせ・読書):発達心理学的には重要な入力の一つ
  発達心理学的には:幼児の言語発達の研究、教育支援
  自然言語処理的には:ひらがな対応等
   絵本データベースの構築
    多くの子供に読まれている絵本+対象年齢が比較的はっきりしている絵本:合計1200冊
    本文は人手入力、改行等そのまま入力
    字のない絵本もある
    ひらがな75.6%、カタカナ6%、、、
     BCCWJ: ひらがな49.2%、漢字30.3%、、、
     京大コーパス: 漢字42.8%、ひらがな42.6%、、、

既存の形態素解析器では殆どうまくいかない
 KyTeaの再学習を使ってモデル再学習
 ひらがなや空白の影響を調査
  空白の入れ方はバリエーションに富んでる
  口語体/方言用モデル構築も必要

naltoma: 固有名詞追加したのであれば、mecab等でもうまく分割できそう?
 -> そうでも無さげっぽい。


Q: 平仮名まじりの形態素解析器をやったことがあり、
 タスクとしてはIMEの方が近いかもしれない。
A: ありがとうございます。

Q: 漢字にするとかあったが、文全体をやるのではなく一部平仮名+一部漢字に
 すると良くなりそう。「いちごの赤い」みたいなケースで、赤いに引っ掛かるので。
 元々のDBの文字の意味を見て、絶対漢字で現れないものを反映させると精度上がるのでは。
 トレーニングデータに入れるのも良いとは思うが、BCCWJみながら検討して見ると良いのでは。
A: 検討します。

言語処理学会第19回年次大会(NLP2013) 2日目終了

木曜日, 3月 14th, 2013

m_20130314150112514167a8f2df0 m_20130314161326514178966306e

NLP2013の本会議2日目が終了しました。一緒に参加してる学生は体調不調でポスターセッションは見れなかったっぽい。直接話しながら聞けるし、これぐらい盛り上がってる場もなかなか無いので勿体無いとは思うけど、無理しても仕方ないので明日チャンスがあれば、かな。

今日の内容は、一般セッション1件、論文賞を受賞した人らによる講演3件、招待講演1件、ポスターセッション2件で、早朝から夕方まで詰まってるタイトなスケジュールでした。

招待論文講演1では、「片仮名列から単語列へ変換する」というタスクを解決できると、従来の形態素解析器が苦手としているケースでも精度向上するだけじゃなく、「アンチョビのソース」みたいな状態で「ソース」がプログラムコードなのか調理でのソースなのかといった曖昧性解消にも繋がるし、結果として機械翻訳における精度向上にも役立つというタスクらしい。人間でも「後で気づく」ことがあるけど、その1シナリオをうまく実装しているなという印象。

招待論文講演2では、一般的に検索エンジン使ってる状況下では一度の検索で十分な結果が得られるとは限らないので、再度検索し直す(=リランキング)ということを繰り返す。という状況下を想定して、インタラクション後(特定ページを選好した後)のリランキング結果を良くしようというタスクに取り組んでいるらしい。というか何度かリランキングという言葉は見かけてたのだけど、その人達が受賞してたのね。

招待論文講演3では、オフショア開発等でもニーズが出てきた「外国人の書いた日本語文における助詞誤り」を翻訳という捉え方で自動修正したいというタスクらしい。「誤りパターン」を機械学習させるのは良いとして、擬似的な誤りデータを生成させ、それを「実際に誤っているデータ」との差をドメイン適合(素性空間拡張法)し、適合した疑似データを使って機械学習しましょうという話。個人的には、実データをベースに擬似データを生成するってのはお試しでやったことがあるのだけど、思ってたほどの効果が得られず放置してました。ウマく疑似データを生成してやらないと効果が薄いらしいけど、ここにドメイン適合持ってくるのは目から鱗だ。

招待講演2では、ヴァーチャル日本語-役割語の謎-もっと知りたい-日本語の金水先生による講演で、「おお、そうじゃ、わしが知っておるんじゃ」のように文章だけで「話者の人物像に密接に結びついた話し方(の類型)」についての話。田舎っぽさについては海外でも良く見られ、広い範囲での地方語を混ぜて(日本だと東西の地方語を混ぜて)田舎っぽさを演出するのが常套手段らしい。内容だけじゃなく話し方もとってもウマくて楽しかった!


目次


A4:評判・感情解析, 座長: 乾 孝司(筑波大)


A4-1 感情軸における感情極性制約を用いたマルチラベル感情推定 (pp.244-247), ◎江崎大嗣, 小町守, 松本裕治(NAIST)

文に含まれる感情を自動推定する
 複数感情が含まれることを考慮していない
 感情同士の関係を考慮していない
  嬉しいと悲しい/嬉しくない=悲しい?
   感情対モデルの導入+SVM回帰+極制約+軸制約
   Markov Logic Network
    SVM回帰と比べて、MLNはデータ数の少ないところで高い値を示している

naltoma: 感情対モデルと信頼性を用いた制約(極制約+軸制約)を導入しているが、
 話し手/書き手の特性に依存して調整する必要が無いか?
naltoma:
naltoma:


Q: エラー分析で、感情語の影響が大きいとは?
A: 「楽しかった旅行の思いでも冷めてしまった」は「楽しかった」に引っ張られて喜びと
 判定してしまった。
Q: 1文に含まれる感情語は一つという前提?
A: そうではない。

Q: 平均出してる結果は全サンプルでの結果?
A: 提示したのはマクロ平均。マイクロ平均でも同じ傾向を示した。

Q: 制約は相当強い制約に思えるが、感情毎の強さはデータ数で決めた?
A: データ数ではない。

Q: マルチラベルがポイントだと思うが、評価はマルチでやらない?
 喜びと悲しみが同時に出たとして、それを同時に評価。
A: そういった指標は今後考えていく予定。

Q: 感情語を含む文と含まない文があると思うが。
A: 今回は含む文という仮定。
 感情が生起しているという前提で推定したかった。
 生起しているかしていないかという分類器が必要。
Q: 「楽しかったけどホゲホゲ」とか、文全体を読んだ時の感情を導く必要がある?
A: その通り。


A4-2 レビューテキストを対象とした評価条件の抽出手法 (pp.248-251), ◎中山祐輝, 藤井敦(東工大)

評判分析
 「対象:属性:評価表現」評価値?
 「目的:条件」別目的には?
 「状況:条件」別状況では?
  評価に関する条件(評価条件)を考慮した評判分析の高精度化を目指す

レビュー文からの評価条件抽出
 入力:対象、属性、評価表現が抽出された文
 出力:評価条件

naltoma: 評価条件が別の文に書かれているor示唆していることはないか?
naltoma: 評価条件と属性は明確に異なるもの?どちらかが上位?部分的に重複?
naltoma:


Q: 文節単位で見た時に、一番右側の分節を当てることが重要かつ簡単に思う。
 そこから左に遡るとか。評価表現中の当てやすい分節というのはないのか?
A: 決めることはできないが、前の分節からの距離が近いほど当てやすい傾向がある。
 評価表現から前の分節をどんどん辿っていって当てていく手法が考えられる。
 系列を考慮した手法として検討中。

Q: 何が評価条件なのかというアノテーションの基準を決めるのが難しそう。
 例えば最初の例の「値段に」は条件?
A: 今の所条件と考えている。値段と綺麗を比較した時に、恐らくギャップが生じる。
Q: 基準を決める際に難しかった他の例は?
A: 原因なのか条件なのかの判断が難しい例があった。
 特定利用者や特定状況を想定しており、それ以外であれば根拠、そうでなければ条件として決めている。

Q: 評価条件は対象に対する条件を求めたい?
 「可愛い女の子だから楽しかった」は今回の対象?
 レビューはオブジェクトがあってこその評価。
 対象とは関係ない条件も取れてしまわないか?
A: 対象というのが動作の主体を表しているということ?
Q: 「動物園に行った。女の子と一緒だったから楽しかった」とか。
 これは条件じゃない?
A: 今回は検討していなかった。


A4-3 Twitterにおける観点に基づいた意見文クラスタリング (pp.252-255), ◎鷹栖弘明, 小林聡, 内海彰(電通大)

意見にはいくつかの観点が存在
 Twitter対象に観点毎に意見分類
  キーワード検索>関連ツイート収集>ツイート特定>周囲ツイート収集>意味的クラスタリング

naltoma: 「観点」はどう抽出/設定する?
naltoma: URLや他媒体、他ツイートを取り上げて意見を述べる場合があるが、それは後で考慮?
naltoma: 「関連ツイート」対象はその本人の時間的前後ツイートのみ?


Q: 目的について。やりたいことは、特定意見について観点毎にまとめるようだが、
 時間が似ているというのがピンと来ない。
A: あるトピックについて複数観点について述べるということに、
 内容について類似度を求めるなら、時間類似度は必要無いかもしれない。
 一人のユーザが複数観点を述べることは想定していなかった。

Q: クラスタリングすると何が取れるか分からないと思うが、
 取れたクラスタが観点毎になるようにコントロールしている?
A: 特にコントロールはしていないが、頻繁に出てくる単語/文字列については、
 例えばニュース記事のタイトルなど、
 それだけでクラスタリングされてまずいことになる。
 そこの補正はしている。

Q: 実際に出てきた結果、クラスタはどうだったか?
A: 「地震、状況、政党」とラベル付けできるクラスタが構築された。


A4-4 情緒推定における状況の対称性を考慮するためのパターン辞書の拡張 (pp.256-259), ◎野口和樹, 徳久雅人, 村田真樹(鳥取大)

パターン辞書:情緒名/判断条件/情緒原因/情緒主
 入力文「子供がピーマンを食べる」
 状況設定:子供はピーマンが嫌い ->希望出力「嫌だ」
  生理に「不快」な状況も考慮する必要がある
   対象な情緒属性の追加により網羅性向上
    情緒原因毎に一定数調査+機械的追加

naltoma: パターン辞書を拡張していくことで、逆に誤ってしまう事例はなかった?


Q: 「情緒」とは? 「感情」との違いは?
A: 一般的に感情と呼ばれているものとの差は無いと思う。
Q: 感情分析における位置付けや、使われている用語が一般的な用語と異なるため、
 余計に位置付けが良く分からない。
A: 情緒推定はテキストマイニングへの寄与を考えている。
 情緒主が得られれば、その人はどういう感情を持ちやすいというようなことへの利用を想定。
Q: 「同意」とかも用語が一般的でないので、整理した方が。
A: ありがとうございます。

Q: 辞書にパターンを追加しているが、情緒判定での評価になっている。
 目的を考えると、パターンが正しいかを直接判定することが良さそうだが、
 そうしていない理由は?
A: 対象なものを追加したということで、元々の情緒属性が含まれてしまう。
 追加したものに絞らずに拡張性の妥当性を調べる方が優先度が高いという判断。
Q: 対象な情緒属性を追加しているかどうかを評価した方が良いのでは?
A: 元々情緒属性があるというのと、継続的に進めている辞書が完成したということもあり、
 全体の評価になった。

Q: 知識ベースについて。最終的なゴール対してどのぐらいに達していて、
 どのぐらいで完成しそう?
A: 入力文に対して「情緒主と関連事物の関係」が分かる前提になっているため、
 そこを自動判別する必要もある。実際にブログでの評価をしてみる必要がある。


A4-5 ソーシャルメディア上の発言とユーザー間の関係を利用した批判的ユーザーの抽出(pp.260-263), ◎高瀬翔(東北大), 村上明子, 榎美紀(日本IBM), 岡崎直観, 乾健太郎(東北大)

実態(企業/製品/人など)に対する意見が大量にある
 風評被害を起こすような非難も
 特定実体の非難ばかりを行うユーザ/評判を落とそうとしている->風評被害防止
 批判的ユーザ(日常的に特定実体を非難)の抽出
  揶揄や省略、くだけた表現
   「使いづらい商品、流石です!」
   「A社の新製品が使いづらい」←「@ 馬鹿だからだな」←どちらを非難?
  同じ意見のユーザが互いに指示関係で結びつく性質

naltoma: mention, 非公式公式RTを除いても問題にならない?(自身のツイートだけで
 十分判定できるぐらいその頻度が高い?)
naltoma: 風評被害の場合だと「特定物体」とは限らず様々なものをRT(支持)しまくる
 ユーザがいると思うが、それはうまく考慮できる?
naltoma:


Q: テキスト解析とグラフ解析を組み合わせたのがポイントとのことだが、
 グラフ解析はどのぐらい寄与したのか。
A: 今回は入力をランダムにしているため、グラフが分断されても問題無い。
Q: 揶揄とかについて、グラフ解析の結果をそちらにフィードバックすることはできそう?
A: できると思うが、まだやっていない。

Q: グラフ分断について。A社で検索したツイートとのことだが、それが繋がる?
 たまたまお互いがリツイートしている?
A: 1ヶ月間収集すると1万人以上集まり、その中から発言数が多いユーザに絞ると
 関係が密になっている。

Q: Precision/Recallグラフで戻ったりしてるカーブはあまりみられないと思うが、
 それは何故?
A: 本当は非難じゃないものを非難と取ることもあるため、そうなることがあると考えている。


招待論文

論文1: 言い換えと逆翻字を利用した片仮名複合語の分類, 東京大学・鍛冶, 喜連川

言い換え表現の認識に基づく片仮名複合語の高精度な分割
 ゴルゴンゾーラソース -> ゴルゴンゾーラ/ソース
 言い換え表現の認識:ゴルゴンゾーラのソース Gorgonzola sauce

片仮名複合語は日本語において新語が形成される典型的パターンの一つ=未知語の源泉
 生産性が高く、辞書資源への登録が追いつかない
 単語分割器は未知語の解析が苦手 [Emerson 05]

タスク:片仮名列から単語列への変換
 構造予測問題として定式化
 単語n-gramなどの基本的な素性+言い換えと翻字に基づく素性
  言い換えでは、「助詞は単語の切れ目にしか挿入されないはず」
   アンチョビソース->アンチョビのソース
  逆翻字では、「英語では分かち書きされるので、分割箇所が明確」
   「…アメリカではジャンクフード (junk food) と言えば…」

naltoma: 「取り過ぎてしまう」ことで分割誤りしてるケースにはどんなケースがあるんだろう?
 それは抑えられそう?


Q: 比較結果について。新素性使わないのはどういう提案手法?
A: 最終的に提案したいのは新素性を使うもので、使って無い方はベースラインとして独自実装。
 単語unigramとかをしよう。
Q: 翻字や逆翻字自体の事例は多数あるが、どう違う?
A: 翻字研究でどう分割しているかは、読んだ限りでは形態素解析器を通したケースが多いように感じた。

Q: 和製英語の問題。ガソリンスタンドは括弧表現が出にくいとかありそうだが、
 悪影響があるのか?
A: 目視限りする限りでは和製英語も取れていた。
Q: unigramが効いている?
A: 翻訳対としての抽出結果として取れていた。

Q: 片仮名で書いてる和語に対する悪影響は?
A: ネコとかも取れてた。悪さをするというのは確認出来ていない。

Q: 精度評価をEDICTでやってるので取りやすいところで検証しているのが勿体無いと感じた。
 実際のコーパスに適用した時にどうだろうか。
A: webから収集して検証したいが、集中したい所以外の問題が多々あってやっていない。
 ある程度長いものが取れると、遠くの関係まで見れるのが効きそう。

Q: 共起も使えるのでは?
 統計的機械翻訳と比較してどうなのか? 文として翻訳したとき。
A: 共起も使えるとは考えているが、まだ比較していない。
 バイリンガルコーパスを使うのが困難で、モノリンガルから取れる所が嬉しい。


論文2: テキストの表層情報と潜在情報を利用した適合性フィードバック, 京都大学・原島, 黒橋

一回の検索で良いランキングが得られるとは限らない
 検索結果をリランキングする手法が必要
  適合性フィードバック:フィードバックと類似する文書を上位にリランキング
   従来手法:文書に表層的に現れる単語だけを用いて類似度算出
   提案:潜在的に現れうる単語も用いる+潜在的単語の分布はトピックモデルで推定

実験
 NTCIR 3 ウェブ検索評価用テストセット:1100万ページ+47検索課題
  検索課題毎に約2000文書に適合度が付与されている

naltoma: 類似文書をリランキングしているが、
 ユーザがリランキングする際には「同じ側面/視点」について述べている
 という意味での類似では? トピックモデルがそこに近いことをやっている
 かもしれないが、保管されるデータが側面/視点とは限らないので、
 類似文書検索に機能するのは理解できるが、リランキングとして機能しているのかが良く分からない。
naltoma: (トピックモデルのような形で潜在的な嗜好を見積もれる?)


Q: 提案手法とライバル手法を比較する際、ステップ2は同一?
A: INITはステップ1そのまま。ライバルはαを0にしている。
Q: 提案手法はステップ2と4の両方が効いているように思うが、
 潜在情報のフィードバックというより最初のLDAが効いてるのでは?

Q: 検索課題毎の内訳はある?
 トピックによって効き方が違うとか。
A: そこは見ていない。

Q: 人手でフィードバックするという話だが、やった人が本当に選んだ?
A: 正解と書いてあるものを選んでいる。
 テストセットの中にある代表的な正解文書を使っている。
Q: 初期検索群に出ている?
A: とは限らない。

Q: relevance feedback で文書特性を比較してリランキングする手法と比較してどうなる?
A: やってみたい。

Q: 潜在情報フィードバック時に、線形和ととっていたがどう設定した?
A: 開発セットでチューニングした、ベストな値を採用。


論文3: 小規模誤りデータからの日本語学習者作文の助詞誤り訂正, NTTメディアインテリジェンス研究所・今村, 斎藤, 貞光, 西川

外国人日本語学習者の作文誤り訂正
 教育目的だけではなく、オフショア開発でのニーズ
 日本語学習者作文の誤り傾向の調査(正しいと判断できる最小限の修正をするよう添削指示)
  翻訳と同じ考え方:誤りを含む学習者作文を正しい文に変換することで対応

モデル学習のための事例が大量に必要
 1. 日本語平文コーパスの利用
  修正文相当と看做す
  n-gramニ値素性のスパースモデル+言語モデル確率実数値を、識別学習で全体最適化。
 2. 疑似誤り文によるペア文の拡張
  学習者作文を模した疑似誤り文を自動生成
  疑似誤りと実誤りの分布差をドメイン適応技術で対応
   素性空間拡張法 [Daume 2007]

naltoma: ドメイン適応で自動生成したものを補正するという視点が面白い。
 がしだし独自モデルで疑似事例生成&ドメイン適応させて学習させると再現率向上に寄与?
 -> 疑似誤りはうまく作らないと適合率/再現率に寄与しにくいらしい
naltoma: ドメイン適応させるとして、ターゲットはどのぐらいの事例があれば良いのだろう?
 ドメイン次第なのは分かるが、何かしら指標が無いか?


Q: 助詞の追加は名詞の後に限定しているようだが、
 名詞の後に既に助詞があるという状況でも挿入すべき?
A: 挿入すべきかどうかは考えずに、可能性があるという視点で許容している。
 できるだけ削除したいので、そういう制約を設けるというのもリーズナブルだと思う。

Q: 使う学習の事例は助詞だけが誤っている文?
A: はい。
Q: 訂正コーパスの中に助詞と同時に他の誤りもあると思うが、それは使わない?
A: 使っていない。
 今回は助詞のみの誤り。

Q: 誤りコーパスを書いた外国人はどれぐらいの日本語能力がある?
A: 日本滞在歴半年〜6年ぐらい、中国の方。
 日本語能力自体はばらけていると思う。ただし、大学に通っている方。

Q: テストの時は他の誤りも含む?
A: テストの時にも助詞誤りのみ。
Q: そこをいれるとどれぐらいの性能差が出そうか?
A: まだやっていない。


招待講演2, 司会:川添 愛 (NII), 役割語研究の現在, 金水 敏 氏(阪大)

講演概要資料: PDF
 書籍
  ヴァーチャル日本語-役割語の謎-もっと知りたい-日本語
  役割語研究の地平
  役割語研究の展開
  日本人の知らない日本語

役割語(話者の人物像と緊密に結びついた話し方の類型)の例
 「おお、そうじゃ、わしが知っておるんじゃ。」
 「あら、そうよ、わたくしが知っておりますわ。」
 「うん、そうだよ、ぼくが知ってるよ。」
 役割語=話し方と人物像(キャラクタ)の連合
  ステレオタイプの一種とも考えられる
  ミスマッチの感覚を共有できている(社会的に共有されている)
   共有があるからこそ創作の場で使うことができる

役割語の基盤
 現実(認知)>個体/共同体(共有,ステレオタイプ化)>作品(仮想現実における創作,受容)>個体(制約)
  生成>継承を伴うが、必ずしも現実に基づかない: e.g., 宇宙人の声, 動物の喋り方
  現実の発話行動に制約をかけることもある: e.g., 女の子はこう喋るのが普通
 老人語は歴史的に遡ると江戸時代には既に出現
  若者:江戸語 老人:上方語

研究の展開
 対称研究、翻訳論、翻訳研究
 英語の役割語:方言(e.g., ハリーポッターのハグリッド)。特定語においては性差も。
  田舎っぽさを演出する常套手段:東西幅広い方言を混ぜる
 ポピュラーカルチャーに特化された特殊な言語ではなく、言語の本質を捉えるための有効な視点の一つ

naltoma: 役割語があるためにN次創作活動が促進される触媒として機能してたりする?
naltoma: 何故ここまで日本語では役割語のバリエーションが豊富なのだろう?


Q: 共通して持つ役割語が時代と共に変わるということだが、
 時代毎に一つなのか、複数あるのか。
A: 今日見せたのはかなり共通して絞られたもの。もっと分裂しているタイプもあるはず。
 小説読んでても女性台詞で古くさく感じることもあり、
 現代という一つを取っても感覚がズレてくる。
 大阪弁の例では、大阪弁が下手だとボロクソに言われる。
 他では許容されたり、感謝されたりするらしい。

Q: 動物の文末詞がでてきたが、相手が知らない情報をシェアしているかという
 分析は可能だろうか?
A: 神戸大のサダノブさんが、キャラ語尾をキャラ・ポピュラとキャラ・助詞に分けて、
 起源や機能の違いを明らかにしている。

Q: どうして日本語だけここまで多彩な役割語があるのだろうか?
A: まだ日本語だけかは分からない。
 ヨーロッパの例では「私」を言うにも自由度が多数あり、語順にも自由度がある。
 必要条件ではなくて十分条件。韓国語もコンコーダンスが無いという点では同じだが、
 「私」の言い方は一つ。条件が整っていて、かつ、それを使い分けているというのは、
 今の所日本語ぐらい。古いものを余り捨てないというのも影響していると思う。
 中国語の場合はどんどん捨てていく。日本では多様性を趣味的に愛するフェチっぽい
 ところがあるのかもしれない。

Q: 電車に乗ってると男女での用語の使い分けが減ってきているように感じる。
 好きなものに付随している役割語が増えていくというようなことはあるのか。
A: あると思う。例えばオタク語等のように、そこに属する人たちが使うように
 感じる役割語というのが出てきやすくなっているかもしれない。
 ある特徴をつかみ出して利用すること自体は誰でもできる訳でもないし、
 細かすぎて通じないということもある。
 ある種の役割語における保守性と単純さというのはあると思う。

Q: 個人の役割について。ニュースらしくならなくなってしまう書き換えというのがある。
 「らしさ」がなくなる。格調が無いとか。お役所の役割、組織の役割、みたいなものについて
 研究している事例はあるか?
A: お役所的な公式見解的なものは「文体」と繋がってくると思う。
 サダノブさんの例では意図的ではなくにじみ出るものだと主張している。
 役割語というよりはスタイル研究に近いのでは。

Q: 引用方法にも書き手がコントロールしている側面もありそう。
A: これまでの話はプロに近い作り手の立場からの話だったが、
 日常談話の中でも他者の話をリポートするというのは良くある。
 そこでもうまく引用しないと話が伝わらない。
 役割語的な機能や知識は日常で運用している。


P1: ポスター(1)


P1-2 当事者による議事録を用いたミーティングの中心的課題の特定 (pp.326-329), ◎臼田泰如(京大), 高梨克也(JST)

最終ゴールはまだ決まっていないようですが、「似たようなテーマについて話合っている複数グループ。ワークショップのように中心人物があれこれ用意して話を進めているケースや、ブレストチックに話を進めているケースで、参加者自身が作成した議事録と書き起こした討論ログを付け合わせて何かしたい」みたいな感じっぽい(多分)。取りあえずは両者に共通しているものを重要トピックとして抽出するとかいうことをやってるみたい。


P1-9 数量の大小の自動判定:「彼は身長が2mある」は高いか低いか (pp.354-357), ◎成澤克麻, 渡邉陽太郎, 水野淳太, 岡崎直観, 乾健太郎(東北大)

個人的にはそれを判断する状況&主体によって変わるから、その状況や主体を自動抽出するという話かなと思って聞きましたが違いました(そこは今後の課題っぽい)。今回は、「70億人の水不足→沢山の人々が水不足→深刻な水不足」というような推論するために必要な「大小知識」を自動獲得してみるという話だったらしい。


P1-17 ナイーブベイズ法を用いた意味役割付与に関する実験的考察 (pp.386-389), ◎岩澤拓未, 杉本徹(芝浦工大)

述語に係る語が果たす意味的な役割(深層格)を自動付与しようというタスク。事例の偏り、特に極端に少ない事例に対する問題(ゼロ頻度問題、スパースネス問題)に取り組むため重み調整してみたことで多少回避できたとか。精度的には事例数の多少にあまり影響しないらしい。


P2: ポスター(2)


P2-1 博物館の展示解説に対する興味の具体化を支援する可視化手法の検討 (pp.402-405), ◎梅本顕嗣, 谷口祐亮, 小島正裕, 西村涼, 渡辺靖彦, 岡田至弘(龍谷大)

visualization, summarization の一種。出発点が「博物館の展示解説」で、確かに「ある展示を見たまま何分も解説音声を聞き続けるのは怠い」と思うのだけど、解決手段がそれに対する特化したシステムには見えませんでした。良い意味では汎用性があるのだけど、悪い意味では新しい点が良く分からず。


P2-2 意味的逆引き辞書『真言』 (pp.406-409), ◎粟飯原俊介(九大), 長尾真(京大), 田中久美子(九大)

システム名は「真言」と書いて「まこと」。目標は、比較的自由度の高い記述で入力される「ホゲホゲでフガフガっての何て言ったっけ?」に答えることらしい。似たようなの一杯ありそうなのだけど、発表者曰く無いっぽい。


P2-6 文字列の出現頻度情報を用いた分かち書き単位の自動取得 (pp.422-425), ◎岡田正平, 山本和英(長岡技科大)

一般的な形態素解析器(分かち書き器)は辞書を持っているのですが、そういう辞書がないだけではなく正解データも無しに分かち書きできるシステムを作りたいという話。考古学とかでの「誰も読めない古代語の解析」みたいなものかなーと。辞書や正解データ無しというのは、そこの整備コストがゼロで済むという点では確かに嬉しそう。だけど、現状でのシンプルな頻度ベースでは、広く使われるようになった単語(=とっくに辞書登録されてる単語)しか分かち書きできそうにないのが問題。まだ導入実験のようなので、今後に期待。


P2-9 わかりにくさと修辞ユニット分析 (pp.434-437), ○田中弥生, 宮部真衣(東大), 保田祥(国語研), 荒牧英治(東大)

「わかりにくさ」は読み手によって、もっというと読み手の知識や状況によって異なると思うのだけど、そこら辺は今後の課題っぽい。現時点では「文脈化程度」を定義して、それにもとづく分析を通して「文脈からの分かりにくさ」がどのようにどのぐらい影響しているかを調査しているっぽい。


P2-11 教師あり機械学習を用いた段落の順序推定 (pp.442-445), ◎伊藤聡史, 村田真樹, 徳久雅人(鳥取大), 馬青(龍谷大)

レポート/小論文/論文あたりをを対称にした話かなと思いきや、対称は新聞でした。媒体毎に特性が異なると思うのだけど、そこはまだ意識していないとのこと。現時点でもまだ精度高くない(=適切な素性を作り込めていない)ですが、青空文庫でも試してみたいとか。小説には小説特有の段落があると思うので、もう少し何をやりたいかを練った方が良さそう。


P2-14 歴史の選択問題を解くため必要なフレーム的知識に関する考察 (pp.453-456), ◎板持貴之(東大), 三輪誠(マンチェスター大), 鶴岡慶雅, 近山隆(東大)

RITEの一種だと思いますが、大学入試の歴史問題における「選択問題」で、「確実に誤ってるもの」をうまくスコア評価したいという話。現時点では人物名に絞って、Wikipediaから自動で必要となる背景知識(問題文上では出て来ない知識)について収集し、フレーム的知識表現を構築していってるらしい。基本的には単文での判定を想定していて、「文1,2とも単独では正しいが、組み合わせがおかしい」みたいなケースは考えていないというか必要なさげっぽい。少なくともRTEベンチマーク的にはそこは見ていないとのこと。ただし、単文判定でも「単純に正誤判定」するだけではうまくいかないことがあり、「4択で○○××と判定したらどうするか」とか、別の問題があるらしい。


P2-18 ユーザの視点を考慮したレビュー文の比較 (pp.468-471), ◎坂梨優, 小林一郎(お茶大)

膨大なレビューから「自分が知りたいトピックに関する文を収集したい」っぽい。1文を文書としてLDAすることをベースとして、WordNetやジャッカード係数等で制約かけて絞り込んでみたという話かな。


P2-22 段落見出しの自動生成に向けて (pp.484-487), ◎川口人士, 佐藤理史, 駒谷和範(名大)

重要単語抽出問題として設定して、単語抽出した場合とそれに関係する別語も用いた場合との2種類の見出し生成をテストしてみたという話らしい。見出し生成してる事例がないという話だったけど、そうなの?

言語処理学会第19回年次大会(NLP2013) 1日目終了

水曜日, 3月 13th, 2013

m_20130313101604513fd354b4c98 m_20130313102659513fd5e3a137c

NLP2013の本会議1日目が終了しました。NAL研的には堀川くんの発表が終わり、一応これで学生の発表は終わったということで打ち上げ的に和食まるやにて鰻三昧(卵巻き巻き寿司ひつまぶし)してきました。twilogだとこんな感じ

オープニングでの話によると、今回は「論文賞受賞者による講演」を予定しているらしい。ということで、受賞者だけは最初に紹介されてました。

イベント的には一杉先生の招待講演「脳は計算機科学者に解明されるのを待っている − 機械学習器としての脳 −(PDF)」が面白く、個人的には、細胞分裂や細胞の生死を含めたモデルとして現象再現できるように構築できるのかが気になります。この記事内でメモも残していますが、素直に一杉先生が用意しているサイトを眺めた方がイメージも掴めるし、参考資料も揃ってますのでお勧め。曰く、NNとの違いは以下のようになるらしい。

脳とベイジアンネットFAQより抜粋)

  1. 入力されるものも出力されるものも「値」ではなく「値の確率分布」です。
  2. 推論時の情報の流れが「入力から出力へ」という一方向ではなく、双方向です。 すべてのノードが入力ノードにも出力ノードにもなり得ます。
  3. 推論時の情報の伝達は一度ではなく、ネットワーク全体に 情報が繰り返し伝播します。

午後は通常セッションx3で、ずっとIB015会場に参加してました。個人的に視点が面白いなと感じたのは、B1-1のカテゴリ情報を利用した商品名自動抽出B3-3の対をなす二文書という関係を利用した文対応推定です。別の意味ではB2-3のWatson使って正誤判定させるのオマケとして出てきた「文のどこが間違っているのかを示唆できる」はナルホドと思いました。

ディープな話では脳みそパンクしてしまって付いていけてない発表が多かったので、誤解して書いてるメモや討論内容が多いかと思います。ご注意ください。

P.S.
機能のチュートリアルの研究者流コーディングの極意(東北大学・岡崎先生)は資料が公開されたらしい。


目次


オープニング

新しい試み
 オープニング
 口頭発表とポスターの比率
  228:115(2012) -> 118:128(2013)
 口頭発表
  6パラレル->4パラレル
 招待論文講演


招待講演1:「脳は計算機科学者に解明されるのを待っている − 機械学習器としての脳 −」 一杉 裕志 (産総研)

計算論的神経科学の現状
 従来の脳のモデル:限定された特定データを説明するだけのモデル
 ベイジアンネットを使った大脳皮質のモデル
  脳の認識と学習の基本原理に迫る、適用範囲の広いモデル
  脳とベイジアンネット

役立つロボットに必要な能力
 自律的に知識を獲得/自然言語を通じて知識伝達可能/幅広い状況に知識を応用

脳に関する誤解
 脳についてまだほとんど何も分かっていない->すでに膨大な知見がある(確定的でなければ)
 脳は計算機と全く違う情報処理をしている->脳はとても普通の情報処理装置である
 脳はとても複雑な組織である->心臓等に比べれば複雑だが、以外と単純(人間の手におえる範囲という意味で)
 計算量が膨大すぎてシミュレーションできない->ヒトの脳全体でもすでに可能
 労働力としては人間よりも高くつく->将来は人間よりもコストが低くなる

大脳皮質に関する神経科学的知見
 領野約50個/マクロコラム約100万個/ミニコラム約1億個/ニューロン約100億個/シナプス約100兆個
 各領野の機能、接続構造はかなり明らかになりつつあるが、具体的な情報処理原理は不明
 階層構造、下の領野ほど抽象度が低い処理
 非対称の相互結合
 高次領野低次領野
 ニューロン単体は、内積計算のような単純な演算しか行えない
 大脳皮質の不思議さ:たった50個程度の領野のネットワークで高次機能(認識/意思決定/etc.)を実現

ベイジアンネット
 ベイズの定理:結果から原因を推定
 脳の認識も、結果からの原因の推定
  しかし、ベイズを使った計算は普通は計算量がとても多い(指数関数的)
   効率的推論を可能にする多くの技術
    MCMC/変分ベイズ/ベイジアンネットなど
 確率変数間の因果関係をグラフで効率的に表す知識表現の技術(≒直感・連想記憶と似た動き)
  機能的構造的類似性
   トップダウンとボトムアップの非対称接続
   局所的かつ非同期的な情報のやり取り等

[Chikkeur, Serre, Tan and Poggio 2010] のモデル
 既存の複数モデルを統合(個々モデルで再現していた複数の現象を1モデルで再現)
 視覚の機能を再現するだけではなく、機能ではない現象も再現できる
  注意とニューロン応答の関係再現 [Reynolds and Heeger 2009]
  近似確率伝搬アルゴリズム [Ichisugi 2007]
   解剖学的特徴、接続関係、非対称接続的な類似
  ベイジアンネットの学習 [Hosoya 2012]
   一次視覚野、2次視覚野の応答特性の再現
 大脳皮質がある種のベイジアンネットであることはまず間違いない

前提とする2つの知見
 大脳皮質の1つのマクロコラムは、1つのSOMのようなものらしい
 上位領野のマクロコラムは、下位マクロコラムの影響を受ける
 SOMの階層はほぼ必然的にベイジアンネットになる [Ichisugi 2007]
  BESOM
   時間系列のある学習:階層間での時間遅れ再帰
   運動野:(状態,行動)対の強化学習
   BESOMを使った言語屋モデルの構想
 大脳皮質を再現するために必要だと思われる主要モデル
  ベイジアンネット/自己組織化マップ/独立成分分析/強化学習

言語の専門家の方々に教えて頂きたいこと
 言語屋に作り込まれている事前分布に関するヒント
  「言語現象」にはどういうものがあるのか
  言語の学習・理解にどういうバイアスがあるか

naltoma: ベイジアンネットで目指している幅広さは分かるが、
 脳に限定している点ではまだ不十分では?
naltoma: 計算量的にはシミュレーション可能とのことだが、
 化学物質による伝達レベルで再現できるレベル?
naltoma: 相反するような現象も再現できるという点では、
 意識的な処理と無意識的な処理が同居できるモデルとしても解釈できる?
naltoma: BESOMのような構造が正しいとして、
 このような構造をゲノムレベルではどのような設計図として埋め込まれているのだろう?
naltoma: 人工生命的な視点でいうところの細胞分裂なレベルからBESOMのようなモデルを
 構築していくことと、細胞の死滅を含めた頑健性はどうやったあらうまく再現できるのだろう?


Q: 大脳の特徴としてグリア細胞の多さがあると思うが、小脳には殆どない。
 脳がベイジアンネットだとした場合、グリア細胞は何をしているのだろうか。
A: グリア細胞は物理的に神経細胞を支えていて、神経学論的には無視されている。
 ただし、一部関わっているという話もでてきている。
 現時点ではモデルに取り込んでいない。

Q: 感情を作り込むという話があったが、感情を機械学習のレベルで言うとどういうイメージか?
A: 大脳皮質には直接関わりない。
 快と不快の情動に分けて強化学習として不快に関わることを避けるように学習。

Q: 十分な学習事例があればベイジアンネットで動くと思うが、
 人間の場合はそうではないように思う。そこはどう結びついているのか。
A: 統計的機械学習がうまくいくためには膨大な入力が必要という意見は多い。
 しかし、入力データが少なくても良い事前分布を与えると良い汎化能力を
 発揮するというのがベイジアンネット。
 応用の際には「じゃぁ適切な事前分布とは何か?」という話になる。
 領野毎に適した事前分布が作り込まれていると考えている。
 最初から何でも適した事前分布を作り込むというのではなく、例えば「日本語」
 を学ぶためにという特化した分布ではなく、言語に共通した分布が必要だろう。

Q: チャートパーサの例では、言語研究者としては分割して係り受け解析してと
 考えていきがち。ヒトは入力条件が違うように思うが、どう考えているか。
A: 視覚については局所的に特徴抽出し、一つ上の領野ではより広い範囲での特徴抽出。
 DeepLearningもそう。そういうことがやられているのでは。
Q: 画像全体を取り込むが、ヒトの場合は焦点が動いていく。
A: 視点移動があっても外界が激しく動いているとは「ヒトは」解釈しない。
 視点を激しく動かしていても上の領野では時間的に積分した統合された情報として
 処理されていると思う。

Q: ベイジアンネットと一般に言われるNNと何が違うか。
A: NNは一方向、入力があって出力がある。
 ベイジアンネットは上から下、下から上への処理が繰り返され、収束する。
 収束結果が事後確率となる。
Q: リカレントとは違う?
A: ベイジアンネットでは全てのノードが入力にも出力にもなる。

Q: 脳モデルを作ったとして、どう評価する?
A: 一つは、機械学習モデルとして性能の高さを評価する。DeepLearningはその例。
 もう一つは、神経科学的な尤もらしさを評価する。
 神経科学的な現象を再現できれば、尤もらしさを評価できる。

Q: 世界の数十言語を調べた人は、60の組み合わせで全てを表現できると主張している人がいる。
Q: 体験したことが無いことを組み合わせて表現するというものがヒトにはありそうだが。
A: 広い意味での汎化能力だと思う。
 「黄色い車」における「黄色」のような色と「車」という物体のように
 分解して記憶しておけば組み合わせられる。

Q: 特徴コラムを表す際、犬を見て「犬だと思う」特徴と「ネコじゃないな」という特徴もありそう。
 言語でも一緒だと思うが、どうか。
A: 今の例で言えばネコ以外にもいっぱいって、その確率分布で表現できるのかも。
Q: 情報の足し算みたいなことを「ネコ+野良じゃない」とかができる?
 そういうことを表現できるデータ構造であることが重要だと思う。
A: かなり複雑なことを表現できると思うが、万能だとは思っていない。
 表現能力は高いのでできても不思議ではない。

Q: ベイジアンネットというと予め構造や条件確立票をデータから学習しておき、
 推論に使うという理解。ヒトでは学習/推論は自由に切り替えられる。
 BESOMでもそれは表現可能?
A: 生物の場合は常に連続的に繰り返している。


B1:情報抽出(1), 座長: 山田 一郎(NHK)


B1-1 カテゴリ情報を利用したblog記事からの商品名自動抽出 (pp.3-6), ◎渡邊尚吾, 乾孝司, 山本幹雄(筑波大)

商品についての情報収集
 レビューサイト/blog上のレビュー(到達までに手間)
  blog記事からレビューサイト構築:記事同定+記事と商品の対応付け
   手掛かり「商品名」を抽出

疑似教師データ:商品名の特徴を利用して自動収集
 レビュー記事の特徴:話題をカテゴリ名で代用することが多い(iPhone 4S -> スマホ)
 疑似教師データ:カテゴリ名にタグ付け->前後の文脈を学習
  「理想的な教師データ」と似た文脈
  カテゴリ名だけで収集してタグ付け可能

naltoma: カテゴリ名で代用して書かれる文と、商品名を特定して書かれる文には
 異なる特性が含まれないか? 商品名抽出できれば十分? 抽出しにくい商品名はない?
 (抽出できる教師データには大きな偏りが存在しないか?)
naltoma: カテゴリ名で書かれにくい商品は無い?


Q: 辞書で抽出していたが、取れないパターンは?
A: 文脈からとっているため、辞書に載っていないからという理由ではない。
 辞書では表記が揺れているもの、例えば「iphone」をカタカナで書いてると抽出できない。

Q: 文脈でというのが面白い。レビュー文対象だが、レビューだからこそという特徴は?
 レビューだと商品評価、商品名が分かっているものが対象になっていると思う。
 ただし提案手法ではカテゴリになっている。レビューとしては意味無いのでは?
A: アイデアとして疑似教師データがまずあった。
 仰る通り、レビューに現れる文脈とカテゴリが現れる文脈には違いがある。
 似ている文脈があるという前提で進めてみた。
Q: 対象をweb全体ではなくレビューだけで疑似教師データを作ったら、
 もっと精度は上がるのか? そういう気がした。
A: やってみないと分からない。

Q: 商品名以外のものは今回は対象外のようだが、商品名でも問題になる事があるのでは。
 例えば、「スマホを選ぶ」ぐらいの文脈だと問題になるような。
 そういうのが疑似教師データの質を下げているのでは。
A: 現状、そういうのも含めたノイズが多いのが問題。


B1-2 商品説明文からの属性・属性値の自動抽出 (pp.7-10), ○新里圭司, 関根聡(楽天)

良いUXを提供するために商品情報の構造化が重要(説明文->属性・属性値に構造化)
 教師無し学習に基づく情報抽出 [Mintz+ 2009]
  問題点:(Wikipedia等に基づいた)知識ベースでは、ユーザが注目する属性と異なることがある
   知識ベースを自動構築したい

HTMLタグ+正規表現による属性&属性値抽出
仮説に基づく注釈誤り&抽出漏れ修正
属性値抽出モデルの構築@CRF

naltoma: 抽出失敗の中でも抽出漏れよりは誤抽出の方がクリティカルだと思うが、
 どのように質を担保するのか?


Q: wikipediaやinfoboxでのワインは駄目だという話があったが、
 それに対して自動構築している部分について、既存商品についての属性情報を使う?
 それは結局既知のデータを使っていることと同じに見えるが、何が違う?
A: 属性名の表記揺れを解決している点。
Q: 抜本的に構造が違うものにも適用できそうか?
 商品であればある程度収束しそうだが、属性分類の視点が違うケースとか。
A: 一部違った分類をしているページはあるが、多くは同じような視点でまとめられていた。

Q: ストップワードの決め方は?
 知識ベースで作る時に「これはいらない」という判断をどうしているのか。
A: 抽出したい属性があり、それに属さないもの、明らかにユーザが注目しないだろうというものを登録している。
 汎用的な知識ベースではなく、特化した知識ベース。


B1-3 文字種と画数を用いた未知若者語の抽出 (pp.11-14), ◎秋田恭佑, 松本和幸, 北研二(徳島大)

辞書への登録が追いつかない「俗語」や「若者語」
 コミュニティ外の人には理解できない
 情報取得の妨げとなる可能性
  若者語を精度良く抽出したい

若者語の生成過程に注目:文字そのものに若者語らしさが存在するはず
 事前分析
  カタカナ・平仮名を含みやすい
  漢字については画数の少ないものを用いやすい
 条件付き確率場CRFでラベル推定

naltoma: 若者語と俗語を分ける基準は何かある?
naltoma: 正解データはどうやって用意した?それは「その調査した人たちに特化した俗語」では?
naltoma: 網羅性を高くしたい?


Q: 若者語の話をする時にスマホとかでたが、
 twitter/2chいろいろあるどういったリソースを対象にしているのか。
 コミュニティと性別で傾向が大きく変わるのでは。
A: 若者語コーパスはweb上からランダムに収集し、人手ピックアップして構築。
Q: 特定メディアには拘っていない?
A: その通り。

Q: カジュアルワードとかフォーマルワードとでてきたが、これはどう作った?
A: 五感辞典に含まれている五感情報を持ってきた。
 カジュアルかフォーマルかは人手で付与している。

Q: 文字種と画数で若者語を検出するのは不可能だと思うが、
 どういう要素が他にありそうか?
A: どういった漢字をどういう時期に学習できるか、読みも考慮したい。


B1-4 SVMを用いた株価短報における意見文と事実文の抽出 (pp.15-17), ◎嶋田康平, 岡田真, 橋本喜代太(阪府大)


意見文と事実分を区別して、その後の分析に役立てたい
 株価短報中の意見文/事実文を分類・抽出する
  意見文については文末表現パターンを定義。含まない場合は事実文と判定。

naltoma: 意見文についてパターン定義したのは、そっちの方が定義しやすかったから?
naltoma: 文末表現でパターン定義したのなら学習する必要はないのでは??
naltoma: 抽出についてはどうやる?(今回は分類=抽出?)


Q: 予稿では、株価短報に事実文と意見文が含まれるということは分かるが、
 そのはき違えを無くすために分けると書かれている。株売買では株価短報読んで
 はき違える可能性があるのだろうか? はき違えた事実を観測した?
A: 調べていない。
Q: 意見文の基準は示されている。非意見文をここでは事実文としている。
 非意見文が事実文であるという検証はしている?
A: 人手でラベル振る時に、数値だけの文といったものは完全に除去している。
 今回の実験では意見文のみしか基準を提示できなかった。

Q: 意見文データを作るとき、正規表現で収集した?
 これをパターンマッチするようにしたら良いのでは?
A: 機械学習を勉強しようとする導入として。
Q: 文末表現ではうまく抽出できない所についてやるべきだったと思う。
C: 株価短報は普通の文章と大分違う。
 意見文は提示したルールで記述されている。

Q: SVMで学習する場合、その文末表現が効くことが分かっているなら
 それを直接的に素性にするのが最も早いと思う。
 それでラベル付けにすることが問題になる部分について、
 明確な定義ができない部分について検討してみて欲しい。


B1-5 自然言語処理適用のためのOCR後処理技術の提案 (pp.18-21), ○鈴木敏, 永田昌明(NTT)

言語処理が有効になる程度にはOCRで語認識したい(例:絵本では文字自体抽出しにくい)
 カメラ付きモバイル端末の普及+スマートフォンアプリ
 古い書籍の電子化
 実画像の場合、満足できる性能ではない
  方針:再現率を高く。精度が落ちるのは許容。
  正しい文字を効率的に取り出すには?
   文字認識誤りがどこから発生するか?
    文字位置を特定する所

信頼度フィルタリング+文字位置再推定+再OCR+再フィルタリング
 各推定段階での推定結果を残しておき、最も信頼度の高い文字を最終出力として採用

naltoma: 文字においては局所的な輝度変化がある範囲内に収まることを仮定して、
 それが任意のスケールで一列縦横斜めに複数並ぶのを探索し、最適スケールを
 見つけることができれば良さそう?


Q: 結果について。看板では始めから全文字認識できるものや全く認識できなかったものが多かった
 という話だが、認識できなかったものはどういうもの?
 フォントの種類によって抽出しやすさは変わってくる?
A: 認識できないものというのは、パターンマッチングなのでフォントに強く依存する。
 フォントによっては難しいものや、サイズが大小混在しているケースも難しい。
Q: スマートフォンで写真をとってる場合、ちゃんと正面からとっているケースは
 少なそうだが、何かしら補正しているのか?
A: サンプル画像はわりと綺麗に正面からとってるものが多い。
 位置推定については斜めになっても追従するように考慮している。
 ただし、文字自体が変形するレベルに付いては難しい。

Q: 評価について、再現率を上げるとのことだが、信頼度が高い所についての評価?
A: 全部まとめての評価。

Q: いくつか認識したものを統合する流れだが、認識結果A,Bで文字数が異なる場合にはどうなる?
A: 位置情報が残るので、同じ位置に複数あればどれかを選べば良いという流れになる。
Q: 前の段階での文字半分とか。
A: 文字サイズがベースになっているため、それが優先される。
 大きく外れたものしか無い場合には文字サイズ優先。


B2:意味解析(1), 座長: 岩倉 友哉(富士通研)


B2-1 「契約・解約」に関する消費者トラブル相談事例の分類と分析 (pp.94-97), ◎新井翔太, 聶添, 宇津呂武仁(筑波大), 河田容英(ログワークス), 神門典子(NII)


消費生活におけるトラブル発生が後を絶たない->対策・解決方法を知っておく必要がある
 トラブル解決に有用な相談事例の自動分類のための事例分析
  Yahoo!知恵袋(5年分1600万件)->27%が契約・解約関連
   業者に責任がある/ない
    業者に責任があるものだけをピックアップし、分析に役立てたい
    手掛かり:被害説明、被害にあって発生した気持ち

naltoma: Yahoo!知恵袋の27%が対象とのことだが、それはどう絞り込んだ?
naltoma: 「被害にあって発生した気持ち」は業績に責任の有無とは無関係に持ってしまわないか?
 (分類のために何か役立つ情報源になるのか?)
naltoma: 綺麗にまとめられた文書ではない上に、どこまで事実かが分からない
 主観性の強い文書だと思うが、問題にならないか?


Q: 責任あり/なしで人で分類しているようだが、単語によってどちらに割り振るかが
 判断困難なケースではどうやった?
A: 分析だけで時間が過ぎてしまって、十分な検討ができていない。
 素朴に精度の高い単語を見つけるということは困難だと考えている。

Q: 解答を見るのはどうか?
A: 今回は質問だけに着目しているが、今回は質問者が「どちらに問題があるか」を
 判断できれば良いと考えている。
Q: 解答見た方が判断しやすくならないか?
A: 分析作業時には解答も見ながらラベル付けをした。

Q: 感情を含む箇所を自動認識するにはどういうアイデアがある?
A: 表記の揺れも勿論あるが、簡単な感情「心配です/不安だ」みたいなものはある。
 最終的には機械学習を使うことを想定している。


B2-2 語彙知識と構成性に基づく日本語事実性解析 (pp.98-101), ◎成田和弥, 水野淳太, 乾健太郎(東北大)

事実性とは:例「iPhoneを購入」しているかどうか
 実際には起こっていない/可能性が低い/可能性が高い/起こっている/不明
  事実性解析に対する手掛かりとなる表現に着目
   文末の事象は、機能語の辞書情報によって決定される
    カバレッジは高いが、曖昧性も高い:e.g., 「知らないのも不思議*では*ないです」
   事実性を伝搬すべきか(スコープの問題)

naltoma: 文末事象以外に手掛かりになる表現はない?
naltoma: 何故「伝搬」できると考えたのだろう?


Q: 文末じゃない所について。連体修飾は扱っている?
A: そもそも最初の文について考えるべき。基本的には対象外。
Q: 全部捨てちゃうのは勿体無いように思った。
A: どこまでを事実性とすべきかは議論すべき所だと思う。

Q: 「ど忘れして思い出せなかった」が失敗するのは、「思い出す」の反語を伝えちゃったから?
A: 思い出した/知るは前提になるので、前提については「して」が関係している。

Q: 時態勢名詞(xxx)みたいなものは同じ枠組みで扱える?
A: そのつもりで、影響するような特別な処理はしていないつもり。
 データにも入っている。

Q: 事実を知っている人は話す。伝搬するということ自体がおかしいように感じる。
 「ど忘れして」の例は理由を述べている。
A: 事実性というのは「著者がどのように思って書いたか」という視点で判断している。
 話に出てくる人の視点ではない。
 「ど忘れして」については、理由だから伝搬してはいけないというのはスコープとして捉えている。
Q: 理由についてはシステマチックにできるので、後で。


B2-3 ファクトイド型質問応答を用いた正誤判定問題の解決 (pp.102-105), ○金山博(日本IBM), 宮尾祐介(NII)

命題の真偽判定
 網羅的な情報源があっても「偽」と答えるのは困難
 なぜ「偽」なのかがわかると尚良い
  命題をファクトイド型質問に一旦変換してWatsonに解かせる
   想定解と一致するなら「きっと真だろう」
   複数正解を持つ質問は確信度分布を用いて排除
   属性を問う(他に答えようが無い)質問は、構文的特性を用いて排除
   -> 固有名詞以外が原因となっている問題には対応できない
   -> 「文のどこが間違っているのか」を示唆できる

naltoma: 合意形成の一種だと思うが、素朴に確信度を見ることが正しいのかしら?


Q: 属性を問う質問になるという話があったが、
 集約時にペナルティをかけるのと、作成時に除外する(作らない)ことが考えられそうだが。
A: それしか作れないこともあるので、一度作ってからペナルティを適用している。

Q: 名詞の上位語に置き換えるのではなく、
 文章絞り込むような語では難しい問題になる。
 上位語をどう選ぶか、疑問詞をどう選ぶのか。
 数量はどう扱ったか。
A: 疑問詞については、Watsonについては疑問詞を扱わなくて良いケースだった。
 上位語については人手でやってる根拠でもあるが、センス。
 数量については、Watsonが苦手。確信度があまり上がらなくて扱われないケースが多い。


B2-4 述語項構造解析を伴った日本語省略解析の検討 (pp.106-109), ○平博順, 永田昌明(NTT)

日本語の省略ニーズ:e.g., 日本語での主語省略が誤訳される
 項の省略≒述語項構造解析
  生テキストから5W1H「何が何をどうした」を解析
  外界照応も一緒に解析したらどうなる?


Q: 外界照応も含めた解析器が動いてて60%ぐらい出せている。
A: 参考にさせて頂きます。

Q: 外界照応について捉えるために何が効いたのか。
A: モダリティが効いていそうだが、新聞記事では出にくい。

Q: 外界照応やってみて、どれぐらい改良できそうか。
 人間でもわからないケースが多くありそうだが。
A: 簡単なやつは良いが、一人称と二人称については簡単に上がるケースがある。


B2-5 構文・述語項構造解析システムKNPの解析の流れと特徴 (pp.110-113), ○笹野遼平(東工大), 河原大輔, 黒橋禎夫(京大), 奥村学(東工大)

KNPのイメージ
 ルールベースの係り受け解析:統合的解析器
 内部で何が行われているか分からない:ルールと統計情報用いた解析
 出力結果読み方が分からない:分析用に可読性を重視した出力を追加
  どのようなタスクにKNPが向いているか
   構文・格解析(デフォルト):省略項解析しない
   固有表現解析(-ne)
   ルールに基づく共参照解析(-anaphora)
   ゼロ照応解析を含む述語項構造解析(-anaphora):係り受け関係再解析しない+格解析は再解析

CaboCha + SynCha との主な違い
 KNPは文全体を見て最適な構文・格構造を決定
  ガーデンパス文等、遠距離、かつ、語彙情報を考慮する必要がある係り受け解析に頑健
 KNPは格フレームに含まれる全ての格が解析対象
  主題格も解析できる(象は鼻が長い)
 受身文、使役文の場合


Q: KNPのソースコード読もうとして諦めたが、メンテできる人はどれぐらいいる?
A: 著者の河原&私だけ。

Q: KNPの売りは並列句を正しく処理できるのがウリだったという記憶だが、最近はどう?
A: 当時はそうだったが、その後より強化された手法が提案されている。
 ただし、公開版には反映されていないこともあり、具体的にどうなのかは良く分からない。

Q: ドキュメンテーションがあると嬉しいが、予定は?
A: ドキュメンテーションがないのはありえない状況のため、書くようにする。
 「-tab」は何でも出せという気持ちでやっていることもあり、古いものも含まれている。
 全てについてドキュメントを用意できる訳ではない。

Q: 高速化は?
A: 今後の課題。
 格フレーム読み込み部分についてデータ構造持ち方工夫で数倍には高速化できると想像している。


B3:談話解析, 座長: 飯田 龍(東工大)


B3-1 文章構造解析に基づく小論文の論理構成における整然さの自動評価 (pp.190-193), ○勝又大介, 藤田彬, 田村直良(横浜国大)

教育測定、小論文試験における採点者の負担軽減&評価揺れの改善
 藤田2009による文章モデルの拡張
  文間関係の「向き」を考慮したより具体的な論理展開を捉えて文章を評価
  文章構造の精密化(向き考慮)
  論理構成における整然さの評価
   文が互いに関連+主張とそれに対する根拠、理由付け

naltoma: どういう入力を想定しているのだろう?
 1章とか小説分けされてない、複数パラグラフがある程度の小論文?


Q: 小論文の分量によって論理構成が違ってくるんじゃないかと思うが。
 どういう想定?
A: 所有している小論文400編、400字と800字が200編。
 400字ではばらつきが少なかったので、800字のみで検証。

Q: マルコフ・ロジックを使っているとのことだったが、ソフト制約についてはどうだった?
A: 緩和制約について、「2項関係が交差しない」は影響が高かったが、
 それ以外はあまり見られなかった。

Q: 自動採点やるとき、RSTから3つにしているが、その粒度で採点に都合がいい? 別の理由がある?
A: 3つに粗く分けているのは、現時点でも精度が低いのであまり細かくし過ぎても仕方が無いというのが一つの理由。
 また、細かい修辞関係を用意した場合の評価が困難でもある。
Q: それで良いかの検証は?
A: していない。

Q: 論文採点前で精度とか話されているが、これは何の精度?
A: relateはエッジの有無についての精度。nucearity が文間関係。
 relation がエッジ関係。

Q: 木構造で談話構造分析するというのをNLP2012ぐらいにあったと思うが、
 その関係をラベリングして採点するというものを比較してはどうか。


B3-2 識別的スクリプトモデルを用いた文間ゼロ照応解析 (pp.194-197), ○浜田伸一郎(TSOL)

ゼロ照応解析
 述語の必須格同定
 述語項構造解析:KNPで70~90%
 文内ゼロ照応解析:30~50%
 文間ゼロ照応解析:~25%
 文法的傾向がない場合にはスクリプトモデルを利用
  問題点:長さが短い+順序が重要
  さらに欲しい点:述語の語義を区別してスクリプトモデルを使いたい


Q: スクリプト作る所に付いて。コーパスから動詞部分をとってくる?
 動詞の接続関係に付いてはどう扱う?
A: 今回は繋がっている、順接だと考えて扱っている。
Q: そこも考慮してもらうと良いと思う。

Q: 長くするほど適応が難しくなると思う。
A: 短い長さのnramから長いngramも重ねて利用している。
 それがよりモデルとして複雑になっていて、スパースになっているのが問題。

Q: スクリプトモデルで出したMRRの良さと、結果とに相関が見られないように見えるが、
 どういう解釈をしたら良いか。
A: MRRはランキング性能。ランキングはスクリプトモデルでうまく予測できないが、
 棄却はできると考えていて、どこでスクリプトを終えるかを判断するために使えると思う。


B3-3 対をなす二文書間における文対応推定および応答文生成への応用 (pp.198-201), ◎角田孝昭, 乾孝司, 山本幹雄(筑波大)

対をなす二文書:二分書間の文関係(ある応答文が応答先文書のある文を原因として生起している関係)
 1対1だけじゃなく1対多も許す
 手紙-返信/投稿-レス/レビュー-応答
  書き手同士のインタラクションのみ抽出したい
  「対応無し」の特定により返答漏れを指摘できる
   応答文自動生成が可能かもしれない
    入手した対応文を「対訳文」とみなし、統計的機械翻訳的に生成
 文種類を活用して対応の推定性能向上を試みる

naltoma: 文種類を考慮した結果が思ったより延びていないが、
 これは文種類推定自体の精度が低い?


Q: 先行研究では2つを個別にアライメントしていて、
 提案手法では3つを同時にアライメントしているという話だったが、
 CRFで学習できるのか?
A: 1次元だと効率的に推定できるが、2次元になると困難。
 多項式時間でできるかも怪しい。今回は厳密解ではない。

Q: ホテル応答自動生成されてるのは嫌な気がするが、自動生成すべきか?
A: 完全な自動生成は夢物語。苦情出てきた時のサジェストするぐらいを想定。

Q: データが特殊な気がする。応答が全て付いてる密なグラフに見える。
 それがうまくいってる理由にも思える。他のジャンル、スパースな
 場合でもうまくいくのだろうか?
A: 検証してみないと分からないが、宿泊サイトにおける応答はかなりの確率で
 対応関係がある。他のケースでは確かに少なくなると思う。その時にどのぐらい
 うまくいくのかはやってみないと分からない。

Q: 文種類は先行研究のみ?独自?
A: 数年前の「楽天トラベル」でやったときのものがベースで、若干再構成している部分もある。


B3-4 共起距離に基づく文特徴量を用いた派生談話認識に関する調査 (pp.202-203), ◎堀川敦弘, 當間愛晃, 赤嶺有平, 山田孝治, 遠藤聡志(琉球大)

naltoma: 去年もだった気がするけど変換コネクタ持って来ないとかいい度胸してるな!
naltoma: やりたいことは伝えているんだけど、それが従来の問題と何が違うタスクに
 なっているのかという説明が不十分か。
naltoma: 実験目的が少し分かりにくかったかも。まばらなのは何が問題かとか。
naltoma: 一般的なトピック抽出的なアプローチというか、単語自身を潜在的意味解析で
 の特徴ベクトル化するようなことでもできたりするのかな。


Q: 共起辞書を派生具合として用いているが、共起辞書に載ってないものを追加していく。
 どういう条件で追加していく?
A: 談話同定する対象が、終わりを定義することは想定しておらず、ある一定時間で区切っている。
 そこまでの所で漏れが無くなるまで辞書に登録する。
 対象を広げることはできるが、今回は談話同定を行いたい範囲で構築している。

Q: 課題というのは、ツイートがいくつか与えられた際に、
 そのツイートと同じような話題を持っているようなツイートを探し出していく?
A: はい。
Q: 探し出し方は、元のツイートに含まれる単語から探していく?
A: 最初の手法がそう。
Q: それでは駄目だったから共起?
A: その通り。
Q: シードにどんどん新しい単語を足していく際に、
 発散していくのをどう抑えるかという研究が数多くあるので、
 調べて見ると良いのでは。

Q: 派生談話かどうかについて、フォロー関係は使っていない?
 ユーザ間関係を絞った上で検討しているのか?
A: フォロー関係によって派生の元となるツイートがでてこないという解釈であっているか?
Q: はい。
A: 今回は割とローカルな話題、身内が多い状況を想定。
Q: ほぼフォロー関係にある状況だが、必ずしもそうではない?
A: その通り。

Q: シードツイートはどういうもの? そこからどういうツイートを集めたい?
A: シードツイートは談話を集める際のタイトルみたいなものとして考えている。
 個人の評価で取ってきて欲しい。
Q: 評価する際には、シードツイートはどういうものを与えている?
A: ある女の子がドアノブを舐めたというツイートがあり、
 言われた本人がそれは妄想だと言うリプライを返している。
 そこから突っ込みや実況が入っているものが対象。
Q: シードツイートに何を持ってきて、何を収集したいかということだが、
 何をシードツイートにすべきかも含めてクリアにすると有効性が明らかになると思う。
A: 目指したいものはツイッタークライアント。
 リプライ関係やハッシュタグがないのも含めて出て来るとうれしい。
Q: 明示的に表したいからハッシュタグを付けているというものもあるが、
 そこを外したものも強制的に集めてくるというのはどうか?
A: ハッシュタグが付いてると後から読み返すのが楽だが、付いてないとコストが大きい。

言語処理学会第19回年次大会(NLP2013) チュートリアル終了

火曜日, 3月 12th, 2013

m_20130312095705513e7d6182844 m_20130312103544513e867038018

NLP2013の前夜祭的なイベントという認識ですが、チュートリアルが終了しました。大会場はテーブル付いてて割と電源も豊富で無線LAN完備。地下鉄の駅出口から徒歩1分。名古屋は地下鉄移動が便利すぎて地図的な位置関係が全く脳内構築されませんw

午前中に参加した「言語処理研究におけるソフトウェアの開発と公開」は3部構成。

最初の「研究を進める上で有用なコーディング極意」では、大学というか研究室で繰り返されているであろう負の連鎖(〆切直前に結果の誤りを発見、コード複雑すぎて解読不能、結果が残っていない、etc.)に対してどう取り組んでいるかという話。言語処理100本ノックではUnix的な極意(小さく分解して、細かい部品毎に正しく動くようにし、様々な組み合わせで問題に取り組み、簡単に再現できるようにする)のを自然と学べるように構成を工夫しているらしい。研究室で取り組んでいるだけあって、論文化することを最優先することで「最終的に何をどう用意したら良いか」を一通りこなして初めて振り返られる気づきを得られるという話も。個人的には学部3年次向けの実験としてどう設計しようかと悩んでいるところですが、100本ノックを真似るところからやるのもありかなぁ。

2番目の「研究で開発したコードの公開」では、(検証しているところのみに重点を置いているという意味で)一点突破型の実験コードというレベルと、一般的なソフトウェアというレベルに分けて考え、実験コードでもどしどし公開しようという話。そうしないと再現困難だったりするし、(公開を前提としたレベルでドキュメント化してないと)研究室内でも引き継ぎにくいから財産となりにくく埋もれてしまうよね、と。公開するからには最低でも「結果を再現できる」だけの情報は付けよう。知財の絡みで公開困難なケースでは、バイナリ提供やデモサーバ公開とかいう形もあるよねという話も。

3番目の「企業における自然言語処理と開発手法」では、企業だからこそ求められる(求めていく必要がある)品質を改善・可視化するためにもテストが必須で、結果として「正しく動いているか(ソフトウェアとしての品質)」というテストと「解析結果が正しいか(自然言語としての品質)」を明確に区別し、自然言語の質を高めることに注力することにも役立つという話。今回は「単体テスト」レベルの話で、言語処理の品質、例えば「東京都」という文字を形態素解析させた結果が「東、京都」になるのか「東京、都」になるのかどちらかが正しいかというのはソフトウェア・テストとしては設計不十分で、スタブによる仮モジュール(この例では辞書を設定するとか)の導入や、モックにより関数/メソッドが正しく呼ばれているかを検証することで「ソフトウェア的な意味での品質」をテストしやすくなるよ(その分本当にやりたい言語処理の品質改善に注力できるよ)、と。個人的にはスタブ&モックするようなレベルでのテストはやったことないのですが、「テストのテスト」が必要そうになりそう点を懸念してしまったり。

午後のチュートリアルは「言語処理の後先(あとさき)」に参加。従来の多くの言語研究(主に心理実験を用いた語彙獲得や認知に関する事例)では元々曖昧な概念である「語彙」が分かりきっている前提で進められているが、そこをあやふやなまま進めてしまって良いのかという問題意識があり、言語だけに特化せず身体を含めたり、そもそも一人だけをモデル化するのではなく二人をモデル化してみないと見えて来ないものがあるよね等、多岐に渡る事例を交えながらの「意味はどこから来てどこえ行くのか」という話。個人的にも賛同している視点で、語彙がそもそもあやふやだという話は

  • 認知科学の今井先生が言う所の「連続的に推移する世界はことばによって離散的に分節され、カテゴリーを発見・想像・修正を繰り返すことで多層的かつ重層的に捉える」
  • 医学・認知神経学の大槻先生が言う所の「視覚情報では認知できなくとも非視覚情報では認知できたりすることから、入力モダリティ毎に意味システムを構築していると考えざるを得ない」
  • 場の言語学で言う所の「身体を通した自己の二重性と即興劇モデルに基づく共存在の深化(身体と身体、身体と環境との相互作用)が主体的な意識を形成し、コミュニケーションが産まれて言語へと発達した」

に共通している話かなと思いながら聞いていました。ジェスチャーに「話をする負担を減らしている側面がありそう」という解釈(できなくもない結果)も面白かった。

終了後は学内にあるスタバで学生の発表資料チェック。晩ご飯はホテル近くで適当に探した手打ちうどん 五城で食べてきました。味噌煮込みうどん美味しかったんだけど、ひょっとして煮込みうどんだと「手打ち」じゃない専用のうどん麺なんだろうか。普通のもちもち触感のうどん麺で煮込みうどん食べたいんだけどな。

以下、参加したチュートリアルのメモです。


目次
  • チュートリアル T-a, 言語処理研究におけるソフトウェアの開発と公開
  • チュートリアル T-c, 言語処理の後先(あとさき):意味はどこから来てどこへ行くのか.

  • チュートリアル T-a, 司会:ニュービッグ グラム (NAIST), 言語処理研究におけるソフトウェアの開発と公開, 岡崎 直観 氏(東北大学), 吉永 直樹 氏(東京大学), 工藤 拓 氏(グーグル株式会社)


    研究を進める上で有用なコーディングの極意(岡崎)

    研究を進める上でのコーディング作法は教えてくれない
     (自然言語において)研究の成果物は知見(論文)であって、作ったソフトウェアそのものではない ソフトウェアエンジニアの仕事とはかなり違う
       対象:仕様が決まっている vs 解かれていない問題
       目的:利益を得る vs アイデア(実験結果)を検証

    言語処理100本ノック
     小さい処理に分解し結合せよ
     道具を使え
     自分を過信せず検証せよ
     常に検証に備えよ
     研究成果を可視化せよ
     最適化・整理は完成してから
     論文を書いたらコードを整理せよ

    naltoma: 学部3年次向け(プログラミング導入は済んでいいるがまだ研究室に配属していない、
     専門が決まっていないという段階)でも、
     普遍的な能力を養うという点では同じ方針でやれそうかしら?


    Q: 100本ノックについて、具体的にどうやって演習する?
    A: 1週間に1回2時間問題を解いてきて皆でレビューする。
     先輩をチューターにつけて、討論。


    研究で開発したコードの公開(吉永)

    研究者がコードを公開する意義
     実験結果の再現性を保証
      公開しないと実質的に再現困難
     ツールとしての共有資産化/研究成果の社会への還元

    2種類のレベルでの公開:実験コードとソフトウェア
     実験コード
      一点突破
      公開するコードをまとめる/README(再現方法)/使用条件/研究手法と対応付けて公開
     公開できない場合
      コード・READMEを引き継ぐ
      バイナリ形式での公開/デモ・実験サーバの提供/代理実行
 公開をためらう場合
      そのコードで削減される時間があることを意識する  
     ソフトウェア
      ソフトウェア化に値する手法はごく一部
      多様な価値観に晒される

    naltoma: うちの学生にも公開前提でやらせてみよう〜。


    Q: 論文書き上がる頃にはコードがごちゃごちゃしてて出すのは忍びない。
    A: 実験コードレベルで終わるのか、ソフトウェアまでを想定しているのかを
     意識してコーディングしていくことも重要かと思う。
     実験コードについては割り切って出すのが良いのでは。
    Q: 仕様固めてから研究しても、研究している間に仕様が変わっていくことは良くある。
    A: あまり綺麗なコードといってると研究が進まない。
     時間のある範囲で綺麗なコードで十分では。
     まずは1,2回公開してみると掴めることもある。

    Q: プログラムの公開について、言語やインストール方法とか様々あるが。
    A: 重要なことだとは思うが、個人的にはC++で書いている。
     できる限りプラットフォーム・フリーにしたいと考えている。
     ダウンロード数を見る限りでは圧倒的に Windows 版が多い。


    企業における言語処理研究・開発(工藤)


    2種類の品質
     ソフトウェアとしての品質
     自然言語処理としての品質
      テストの役割
       予期せぬ動作と解析誤りの明確な分類
       コミュニケーションの道具
       人材・プログラムの流動性が活発(弄りやすい/引き継ぎしやすい)

    ソフトウェアテスト
     リファクタリング
     テスト駆動開発:失敗するテストをコーディング前に作成
     YAGNI (You ain’t gonna need it)
      必要になるまで機能追加しない原則
      コードの不必要な複雑性を排除
      適度なコードの抽象性はテストによって担保される

    解析誤りと正しい動作を混同しない
     テストダブル (Test Double)
      あるシステムが依存しているコンポーネントを置き換える代用品
      依存先が常にあるとは限らない
      スタブとモック
       スタブ:決められた動作だけを行う代役(e.g., 必ず false を返す)
       モック:メソッド呼び出しの検証を行うための代役(e.g., メソッド呼び出し回数を記録するカウンタ)
       stub を inject して mock しながら検証
     依存性の注入 (Dependency Injection)
      コンポーネント間の依存性を外部から動的に注入できる設計
      何に依存するかは実行時まで分からない
      DIコンテナ
     十分なテスト(正しい動作)をすることで、真の解析誤りに注力

    評価
     機械的・平均的評価
     回帰テスト:「絶対変換・解析で気無いとまずい」例によるテスト
     ユーザビリティテスト
     見える化

    naltoma: テストのテストが必要になったりしそう。
     テストの自動生成でなくても良いけど、テスト作成のコストを下げられないか?


    Q: テストについて。大学レベルではそこまで使われるのか。
    A: 多分、大学ではやる必要は無い。
     ただし、形態素解析作ってたりすると「当たり前のことを間違える」というケースが多い。
     回帰テスト用意しとくだけでもいろんな応用が効くと思う。


    チュートリアル T-c, 司会:丸山 岳彦 (国語研), 言語処理の後先(あとさき):意味はどこから来てどこへ行くのか., 齋藤 洋典 氏(名古屋大学)

    言語活動/心的活動/意味処理活動/心理実験/脳イメージング/言語と行為の関係
はじめに
     言語と身体(言語処理と非言語処理)
      身体運動を含む多様な処理を認め、意味を創出し理解する仕組みは「どこから来てどこへ行くのか」。
       e.g., ジェスチャー:必ずしも意味を特定する訳には使われないが、未だに使われ続けている。
     意識と脳(意識処理と非意識処理)
     自己と他者(一人の脳と二人の脳)
      言語は本質的に他人との関わりの中で発展してきた。

    語彙と語彙接近モデル
     そもそも語彙/語は曖昧
     心理学での語彙研究:語の連想記憶/語と知能/単語の読み
      単語優位効果:学習=概念と概念の結びつき。単語の中にその力が含まれている(?)。
     問い「意味(こころ)は脳のどこにあるのか?」という問いは適切か?
      そもそもどこか1カ所に貯蔵されているもの?
     従来の語彙接近(lexical access: 単語検索):限りなく近づくが、到達はしていない。語彙性判断。

      問いかけ:言語だけが浮き上がってくるのは何故か?
      問いかけ:手(ジェスチャー)での処理が先に終わってて、後から言葉が修正することもある。
      残された課題
       多感覚入力/複数出力の処理統合。非言語処理、身体運動、意図理解等。
       話者/聴取に閉じないモデルの構築。一人の脳から二人の脳へ。

    漢字の読み処理
     見える「もの」と見えない「こと」
     漢字「で」研究
     講義の意味理解:少ない情報でより確実な未来を予測する
     読み間違いは目の誤りではなく脳の誤り
      漢字の形態要素の配置と音韻の両方で起きる。
      部首の位置と音の確率的な結びつきの知識を持っており、それらの影響を受ける。

    発話と身振り
     発話に伴う自発的な身振りは、だれのどのような役に立っているのか?
      半分は自分のため?
      表象的身振り(発話と関連する意味的な内容を描く身振り)
      ビート(意味的な内容を含まず、単純でリズムに乗った身振り)
      聞き手指向/話して指向 vs 対面パラダイム [Alibali et al., 2001]
       話し手は、聞き手が見えない状況でも身振りを算出するか?
        減りはするが、無くならない
        カメラを通した想像条件でも無くならない
       盲人同士(見たことも無い)がジェスチャーをする
     ジェスチャーが発話者本人にとってどういう意味があるか?
      スピーチの負担が減る(?)
       e.g., 第2言語ではジェスチャーが増える≒フレーミング(枠組み構築)に使っているのでは

    行為と言語化
     ボールを投げる動作/投げるシミュレーション/観察/言語化が同一の機能なのか?
      10分前にやったことは後続観察課題で想起されるが、それを言語化するとdischargeされる

    一人の脳から二人の脳へ(脳機能の連携による意図と共感の算出と理解)
     行為も言語化もせずただ認めるだけで、脳の特定領域が活性化される

    naltoma: ヒトと同等のセンサを有するロボット(≒身体を有する何か)を作り得たとして、
     そのロボットが「ヒトと同様に感じ、語彙を獲得し、学んでいく」ためには何が必要だろう?


    Q: 漢字の例で、似ている意味、似ている音が間違いに寄与しているのではないか。
    A: 漢字に関するデータを見る限り、まず形の類似性が間違いを大きく引き起こす。
     音も引き起こすケースはあるが、音単独では起こらない。そのぐらい、脳は賢い。
     脳はあってるがそれを報告するヒトが(気づかずに)間違うこともある。
     脳は知っているが、explicit にはヒトが知っていないことがある。

    情報処理学会 第75回全国大会3日目

    金曜日, 3月 8th, 2013

    m_20130308130140513962a484ace m_201303081927345139bd1700279

    情報処理学会全国大会3日目(最終日)が終了しました。これで全日程が終了で、明日には沖縄に戻ります。

    NAL研メンバはM2な名嘉くんがラストを飾り、合計5名の学生がどうにか発表を終えました。名嘉くん自身の発表では予備審査では治っていた「そして」連発が出てしまったぐらいで、内容的にはありがたいコメント貰えて良かったんじゃないかと。

    午前中は2つのセッションを跨いで参加。一番期待していた発表はちょっと残念な感じだったので置いといて、予想以上に面白かったのは「人間関係を推定するフレームワークに基づくネットいじめ防止ツール」。明示的なテキストなりのアクションをしない女の子のいじめでは「無視する、コメントしない」という行動がネット上でも見られるという話。発表者らによる言葉を使うと「友達リストみたいな登録関係(コネクションネットワーク)は固定したままだが、いじめの対象はローテーションしていく。ネット上でのアクションを定期的に収集、グラフ化することで「予兆っぽいもの」が見えてくる。これをアクティビティネットワークと呼んでいて、固定的なネットワークと動的なネットワークを区別している」らしい。

    最後の招待講演は脳トレな川島先生による「スマート・エイジング」。高齢化社会をとっくに過ぎて、今後は日本人人口総数も減っていく中高齢者の割合が上り調子という超高齢化社会に突入している中、認知機能トレーニングにより経年劣化を防ぐだけではなく向上も可能という話。

    晩ご飯はかきやNO海鮮丼ぶりや ととびすとにて海鮮丼&生ガキ! その他細かい写真はtwilogにて。


    学生セッション[5M会場]数理モデル化と問題解決(1) 座長 山本 雅人(北大)


    5M-1時間制限付き優勢領域図の提案とサッカーの守備の分析への応用, ○岩浅真秀人,大塚 寛(愛媛大)

    入力:試合中の選手とボールの毎秒5フレームの座標データ
     ディフェンスに関する情報を画像として抽出したい
     優勢領域図:守備範囲、ボール支配者の推測
      問題点
       守備範囲全体を支配できない
       スペースは選手の支配領域(選手の到達時間が1秒前後)が分からないと求められない
        -> 時間制限付き優勢領域図へ拡張
       隣接関係は妥当でない


    naltoma: 「ディフェンスに関する情報」とは? 何が分かると嬉しい?
    naltoma: 選手の位置と速度をパラメータとするようだが、
     これで生成された支配領域はどのぐらい正しい?
    naltoma: 時間情報を活用できない?


    Q: 時間を決めているとの事だが、ボールからの距離も考慮すると変わってきそうだが、
     どうか。
    A: まだ考慮していないが、必要だと思う。スペースにも関係してくる。
    Q: 選手の向きも考慮していないのは何故?
    A: 選手は速度を持って移動している。2点座標から移動方向を推測して
     優勢領域を求めているため入り組んだ結果が得られる。
     実際には向きとか分からない情報が多いが、推測して利用している。

    Q: 攻め側の勢力図との関係というのは見ていない?
    A: 守備を中心として考えているため、見ていない。
    Q: スペースがあってもそこにオフェンスがいなければ、
     あえて空けていることもありえるといった有用な情報となりそうだが。
    A: 有用ではあるが、まだ見ていない。

    Q: ボール保持している選手がどこにいて、周りにいる守備側の勢力図は見ている?
    A: ここではまだ見ていない。

    Q: 本当の試合データから作成すると思うが、数秒後の試合結果が推定通りに
     なっているかの判定とか。領域図の適切さの評価はどうか。


    5M-2共起クラスタマイニング ー数値観測量の事象系列に対する頻出パターン抽出ー, ○稲場大樹,福井健一,沼尾正行(阪大)

    事象間の因果関係・相互作用:共起パターン(ある期間内でペアで頻出)
    頻出パターン抽出
     Apriori-like アルゴリズム:記号データ
     2段階法:数値観測量(区間分割、クラスタリング->記号化)
      問題点:クラスタリングによる不適切なクラスタ
     時間軸上の共起度を考慮してクラスタ生成
    共起クラスタマイニング
     共起パターン要件:共起性、頻出性、類似性


    naltoma: 共起パターン要件3の類似性には、そもそも何を持って類似しているかはどうする?
    naltoma: 時系列データをどの粒度で区切るべきかはどう判断する?


    Q: デンドログラムでクラスタリングして階層的にやっているが、
     上の階層は頻度が高くなるのは当然。クラスタの中の類似性は考慮されているが、
     階層に関する尺度は考慮している?
    A: 上のクラスタほど共起頻度は高いが、類似クラスタとして生成されるサイズが
     大きすぎるため、類似性でカバーしている。

    Q: 特徴空間に落とすための粒度や区間といったものにかなり影響受ける。
     その辺のパラメータはどうするか、特徴に落とすべきかということについての知見があれば。
    A: 試行錯誤。パラメータに落とし過ぎても少なすぎても駄目。
     バスケットの長さについては今回の2実験では同じ決め方をしている。


    5M-3Mixing Matrixに基づく階層付きカテゴリカルデータの可視化法, ○伏見卓恭,斉藤和巳,武藤伸明,池田哲夫,大久保誠也(静岡県大)

    オブジェクト間の相互関係->全体構造や法則性を把握したい
    現実のデータでは相互関係に偏りがある
    先行:球面可視化法(SE-PI-W法)
     大きな格差がある場合に重みが適切に得られない
     -> 階層性のあるオブジェクト集合を前提とし、重み付け法を改善


    naltoma: 多数の関係を落とし込む以上、ある関係に着目した場合の俯瞰図といった、
     何らかの制約を前提とした方が「使いやすい/みやすい」可視化にならないか?


    Q: 球面というのは3次元?2次元?
    A: 2次元でやってるが、3次元可も可能。

    Q: ベキ分布に従うのが問題ということについては、log取るだけでは駄目?
    A: logとか他にもいくつか試してみたが、可視化法への適用という観点では
     格差の是正にはなるが、値が小さなものも差を見たいという点では不十分だった。
    Q: 最初の重み段階でlogとってからZスコアしては?
    A: Zスコアは必要なエッセンス。logに対応する所はハイパボリックタンジェント
     をかけているところだと認識している。

    Q: 人工データでも実データそうだが、第一階層第二階層では有効?
    A: 実データでは有効なデータ。


    5M-4年代順を考慮に入れた工業製品の進化系統図の提案, ○太田章悟,武藤敦子,犬塚信博(名工大)

    工業製品の影響関係を可視化、系統を知る事で企業研究や分析に役立てたい
    系統樹推定法
     異なる年代の製品間の系統関係を明らかにし、どのように系統が受け継がれていったかを分析


    Q: 世代に注目しているように見えたが、年代という言葉と世代、系統などいろいろ言葉があったが。
    A: 世代と年代は同じ。
    Q: 違う系列でまとまっているが、他社のゲームを真似るとかは発見できないか?
    A: できると考えている。

    Q: 人気影響度を評価しているが、それが高いと何故系統樹の評価が高い?
    A: 人気製品だとどこの企業も真似をしたがる。影響を大きく与えているということは、
     再現度が高いと考えられる。
    Q: ある閾値を越えると似ているかどうかという線が引かれるが、
     影響は受けているけれどもオリジナリティのため押さえ込んでいるとか。
    A: あくまでも影響を与えたかどうかに着目している。
     シリーズだから線が引かれるというよりは、具体的に真似したか否かに着目。

    Q: 属性の選び方や妥当性については?
    A: 現時点では偏りがあるため、精査が必要。
    Q: ユーザの立場にたった見方?
    A: その通り。


    5M-5レビューサイトにおけるユーザ間の動的類似度分析, ○山岸祐己,斉藤和巳,池田哲夫(静岡県大)


    ユーザのレビュー行動をモデル化する
     レビューは常にユーザの独断的評価か?
     ユーザ間の影響(他レビュー)を考慮する必要がある
     影響を受けるユーザは常に決まっているか?
      ユーザ間の類似度を動的に分析する
       トップユーザを基準に類似度曲線のクラスタリング


    naltoma: @cosme は影響を受けやすいユーザの例?
    naltoma: トップユーザとの動的レビュー類似度?
    naltoma:


    Q: クラスタリングにk-medianつかった理由は? K=15は見やすさで選んだとの事だが、
     他のケースはどういう結果だった?
    A: 代表ベクトルとの比較の見やすさを考慮して選択した。
     K=15については、小さすぎるとどうでもよいクラスタが頻出したため、調整した結果。

    Q: 他のユーザに影響されるとのことだが、時系列で最初に評価が決められると
     その後は影響を受けてしまうのではないか。重鎮が高い点数付けたからというよりは、
     多くのユーザが3点付けているとかが影響強くないか。
     ユーザ属性よりもコメントに影響されるのでは。
    A: レビューのテキストについては全く考慮していない。
     現時点では考慮していないが、ユーザの平均点は見るべきだと思う。

    Q: 300レビューしたユーザに限定しているとのことだが、
     300というのはかなり使っているように見える。
    A: 一時的というよりは都合の良いときにちょくちょく使ってはいるという解釈が
     近いかもしれない。

    Q: 分類しているが、実際にそういう影響を受けているかの評価は何か考えている?
     実際にトップユーザから影響を受けているかどうかとか。
     トップユーザだけで良いのかどうかとか。
    A: トップユーザに限定せず、他ユーザも検討する必要がある。
     どういうユーザから影響受けやすいかを調べていく予定。
    Q: どういうユーザから影響受けたかはしりようがない?
    A: その通り。


    一般セッション[5F会場]インタラクション(1) 座長 増井 俊之(慶大)


    5F-6作業対象物へのアノテーション自動設定機能を持った遠隔作業支援システムの検討, ○大多和均,堀川真平,佐野良樹,長沼晶子,古澤昌也,湯瀬裕昭,渡邉貴之(静岡県大)

    既存システムでは「指導者がアノテーションを設定」(負担大)
     アノテーションを手動で設定する必要の無い方法を提案
      グリッド線表示機能:時間短縮には結びつかなかった
      アノテーション自動生成機能


    naltoma: 機械学習させるのと現場で手動提示するのとどちらが使いやすい(ロバスト)か?


    Q: アノテーションに対するナンバリングが正しかったとのことだが、
     どう付与している?
    A: 物体検出リスト登録時にユニークナンバーを付与している。
     いらないものは削除しているため、ナンバーは固定。
    Q: 物体が移動したのをどう同定している?
    A: 連続検出回数をカウントして考慮。
    Q: カメラとターゲットの相対位置が分かっていれば座標の意味が分かるが。
     ちょっとのズレぐらいなら分かるが、大きくズレると座標の意味が無いのでは?

    Q: 学習時には端子毎に登録する必要がある?
    A: その通り。

    Q: そもそもどういう仕事に使うことを想定している?具体的に。
    A: お店とかで、この棚には何をいれるとかの細かい作業。
     向き不向きがあると思うが、具体的にやりたいことはまだ考えていない。
     機械操作、テレビ会議システムの操作とか。
    Q: 沢山の人を相手をする必要はないのでは?
    A: 指導者が一人ずつやらなければならないので、その手間が省ける。

    Q: 指導者が一人で何度もやってると、指導者の指導の仕方がうまくなるのでは?
    A: そういうことも考えられるが、指導者人数は少ない状況を想定。


    5F-7人間関係を推定するフレームワークに基づくネットいじめ防止ツールの実装, ○中村 海,本庄 勝,橋本真幸(KDDI研),三島浩路(中部大),黒川雅幸(福岡教育大),吉田俊和(名大),長谷川亨(KDDI研)

    ネットいじめ:テキスト検出アプローチでは見つけられない(無視などの間接的な行動)
    発生や予兆を検出して教師等に提示するためのフレームワークを提案
     ソーシャルグラフを可視化、構造に基づいて検出
      グラフの変化=異常検知?
     定期的に収集(トラブル起きるとサイトを簡単に消してしまう)
     収集したサイトの管理者同定
     個人属性推定
     リンク構造から同組織推定


    naltoma: いたちごっこだと思うが、可視化されるとそこから逃れるような手段が考案される。
     例えば検出可能な範囲では「らしく」行動された時にどう対処していくか?
    naltoma: コンタクトネットワークが固定で被害者はローテーションするというケースでは、
     それが日常的な行動であるために何らかのアクションをしてしまうことで油を注ぐようなことに繋がらないか。
     単純にいじめの予兆を検出することにはあまり意味はなくて、
     大事に至るケースを漏れなく検出する事の方が重要ではないか?


    Q: ソーシャルグラフを見て潜在的ないじめの発見にどう繋がる?
    A: 女の子の仲間集団は、無視や仲間はずれにする行為がある。
     被害者はローテーションする。ずっと被害者になる訳ではない。
     人間関係の根本的な所、お友達リストは変えずに維持する。
     しかし、記事に対してはコメント書き合う/記事やコメント無視するとかの変化を見ている。
     コンタクトネットワークとアクティビティネットワークの構造変化を見るのがポイント。

    Q: 線で繋がったのはコンタクトネットワーク?
    A: その通り。
    Q: アクティビティネットワークは?
    A: 今回は重畳した形で出力している。

    Q: こういう人が増えていくとどうなる? こういう人はプロフやり続ける?
    A: Lineに移りつつある。
     グループチャットがあり、そのグループから外す。
     ツールの機能に依存する。
    Q: いじめの起こりやすい機能というのがある?
    A: そう考えている。
     Twitter では起こりにくく、そもそも規模が大きいので無視の効果が薄いとか。


    スマート・エイジング ~脳機能解析学が拓く新しい超高齢社会~

    「アンチ・エイジング」という年をとる事に対するネガティブな言葉やイメージを払拭できないかということで提唱している「スマート・エイジング」を実現するために取り組んできた/いる/これからの展望等についての話。スマート・エイジングは世阿弥が述べてた「時分の花、まことの花」における後者のイメージで、具体的には認知に関する「通常だと経年劣化していく各種認知機構(主に全当然や??)の劣化度合いを緩やかにできないか、平坦に維持できないか、より向上させることはできないか」という立場で様々な取り組みをしているとのこと。

    メタ認知における作動記憶に注目していて、これを向上させる訓練をするとオマケ的に鍛えていないそれ以外の機能についても向上することができるらしい。ただし、慣れきったレベルでやってもオマケ効果はでず、ギリギリのラインでやることが必要だという点と、遺伝子多形調べる限りでは良く知られているVal/Valだと鍛えた効果がでやすく、そうじゃないと効果はあるが相対的に低いとか遺伝的要因もあることは分かっているらしい。(日本人が全体的に均一的なのはこれが要因なのかもとかいう雑談も)


    学生セッション[6Q会場]文書分類 座長 持橋 大地(統計数理研)


    6Q-1Geometric Algebra を用いた英語文書分類手法の日本語文書への適用に関する問題についての基礎的検討, ○鈴木直人,古橋 武,吉川大弘(名大)

    潜在的意味解析(LSA)の問題点:語順が考慮されていない
    Geometric Algebraによる語順を考慮したベクトル化
     語毎に「その後に続く語数ベクトル」を作成し、GA処理
      日本語文書に適用した際の問題点を調べる
       0ベクトルで構成された部分の回転行列をできず、適切な類似度が求められない


    naltoma: 1単語でLSAするのではなく、2単語LSAとか、係り受けLSAとかでは不十分?
    naltoma: 今回の問題点はコーパスが小さいための結果では?


    Q: 6つの文を選んだ根拠、何らかの問題になるという仮定があると思うが、それは何か。
    A: 選んだ根拠は、1,2では出現単語では全く同じで類似度が1になるかどうかの確認。
     4,5では逆順で表れるケースで類似度が低くなるか。
     6のように全く無関係の単語の際に類似度が低くなるか。
    Q: 回転行列が求められないというのは日本語特有?
    A: 英語での実験はこれから。

    Q: 1,2の文章と3,4の文章は意味が全く違うように思うが、類似度が0.99と出るのは良いのか?
     会場に行くのと家にいくのがほぼ同じで良い?
    A: 目的地の単語は全く異なるが、同じような語順で出てきたという意味で似ている。

    Q: 語順の行列作る際に、1個前の単語だけを見る? bi-gram?
    A: 今回は直前の単語だけを見ている。
    Q: indexing時に2単語組みと比べてどういうトレードオフがある?
    A: ペア作成すると行列がでかくなりすぎ、より回転行列が定義できないケースが増えると思う。
     今回の手法の方がスパース性が低い。

    Q: 実数基底虚数基底があったが、実際にはどう分けている?
    A: 今回は実数基底のみを用いた。
    Q: どう使えば良いかという指針みたいなものはある?
    A: 分からない。


    6Q-2OCR文書検索を想定した重み付きトピックモデルの検討, ○田村一樹,吉川大弘,古橋 武(名大),鈴木 誠(ブラザー工業)

    
企業:e-文書法に基づく、大量に蓄積された紙文書の電子化
    個人:自炊、クラウドデータ
    フォルダ管理/タグ管理:どちらも時間&労力
     目的に応じて文書を探し出したい->LDA
     問題点:OCR誤認識を含む文書にトピックモデル適用するとトピック推定精度が低下
      単語の認識信頼度、LDA重み付け


    naltoma: OCR誤認識はOCRソフト毎の「癖」がないか?
    naltoma: 認識信頼度が低い単語を除外するだけでは不十分?
    naltoma: OCR誤認識を含まない文書に対してはどう?(例えば誤変換とかタイポとか)


    Q: 誤認識を直すところには適用できない?
    A: その段階での修正ができるとベストではある。
    Q: 単語レベルでのn-gramするとかなり直せないか?

    Q: 全く崩さない綺麗なLDAと、混ぜて試した場合とでどのぐらい差が出るのか。
    A: エラーが増えるに従って認識率が下がっていった。


    6Q-3疑似ラベルを用いた潜在ディリクレ配分法の一考察, ○鈴木聡子,小林一郎(お茶の水女子大)

    Labeled LDA: 予め付与されているラベルに対して精度良好
     問題点:ラベルがついていない文書の方が多い
      全ての文書に対して疑似ラベル付与してLabeled LDA


    naltoma: トピックモデルにおける「トピック」と「疑似ラベル」はどういう関係?
    naltoma: 単語共起と文書類似度から疑似ラベルを生成するという行為により、
     様々な方向への重み調整をしていることに繋がると思うが、
     特徴ベクトルを重み調整して通常のLDAでやることとどちらが良いのか?


    Q: 付けたラベルの妥当性についてはどうだった?
    A: ラベルがもとの同じカテゴリに付けられていたかどうかは確認していない。
    Q: 恐らく labeled LDA の精度が良いのは、labelが正しいから。
    A: 元のデータとの比較は重要だが、それとはっきり一致した方が良いかは別問題だと考えている。

    Q: 疑似ラベルの使い方のグラフィカルモデルについて。
     疑似ラベルがついていなかったら、重みが0になる?
    A: 付いてないラベルの所は0になる。
    Q: それは影響が強すぎるのでは?
     θの事前分布にするのではなく、その後、λの右に持っていくだけでも精度が上がりそう。


    6Q-4潜在情報を考慮したグラフに基づく半教師あり学習によるテキスト分類, ○江里口瑛子,小林一郎(お茶の水女子大)

    グラフ構造に基づく半教師あり学習(GBSSL法)
     問題点:どのようなグラフを用意するか、どのように教師データを用意するかに依存
      グラフ構成について最適パラメータ設定
      教師データを類似度グラフにより選出


    naltoma: 教師データの適切さとして TopicRank スコアが高い方が良いというのは何故?


    Q: 実際に生成されたグラフは見てみた?
    A: まだ可視化ツールができていないが、今後見ていく予定。

    Q: 今回の手法は計算量が増えてしまう事は無いか?
     単にグラフを使う方法よりも計算コストが増えすぎるとか、
     調整するパラメータが多すぎるとか。
    A: パラメータについては先行研究と同程度。
     教師データを作るのはそれなりに時間がかかる。
    Q: 組み合わせになると膨大になると思うが、問題にならない?
    A: 苦労した所ではあるが、傾向性を見つけることで解決していきたい。


    6Q-5PageRankアルゴリズムを用いた重要文抽出による潜在的意味に基づく文書分類, ○小倉由佳里,小林一郎(お茶の水女子大)

    未分類文書をカテゴリ毎に自動で分類したい
    潜在的意味による文書分類の精度を高める文書分類手法の提案
     単語共起関係抽出、グラフ化、重要度算出、重要文抽出、重要文のみで元文書を表現
     3文毎の単語共起関係


    naltoma: 文抽出型の自動要約した文による文書分類する場合と比べてどうか?
    naltoma: 要約と重要文とは意味が異なる?
    naltoma: PageRankの高さと「クラスタリングしやすい文」とは同一だろうか?


    Q: 単語に対して重要語を求めて、重要な文を抽出しているが、
     文書を特徴付けている重要単語の出現回数でLDAするのとどちらが良いのか。
     わざわざ重要文を抽出する必要があるのか。
    A: 潜在情報で分類するために必要なデータで構成し直すことがしたかった。

    Q: 3文にした理由は?
    A: 取りあえず考慮できる範囲として設定したぐらいの意味。

    Q: 重要文、重要単語抽出は面白いともうが、
     ある単語ごっそり除いた時にマズいというのが分かるとGibbs-samplingで嬉しい。


    6Q-6制約知識を用いたCRPへの一考察, ○立川華代,小林一郎(お茶の水女子大)

    LDAでは予めトピック数を指定する必要があるが、通常は不明。
    HDP-LDA:トピック数を推定
     Chinese Restaurant Process + Dirichlet Process
     制約付きCRP


    naltoma: CRPに制約をつけた表現が文書分類に効果を与えると考えた理由は?


    Q: 制約の数が有限だったが、制約の数がどんどん増えないか?
    A: こちらから与えるので、固執の数自体は増えない。テーブル数のみ増える。
    Q: テーブル=トピックだと思うが、同じテーブルに座って欲しい?
     同じ個室に入って欲しい?
    A: 同じ個室には入るけど、異なるテーブルに座る可能性があるので、
     個室をトピックと考える方が良いかもしれない。

    Q: 実際にはどういう制約を与えたい?
    A: 単語群を1制約として与えたい。
    Q: トピックの事前確率で入れた事例は多分これまでにないと思うが、
     そこは大丈夫?
    A: 恐らく。


    6Q-7学習指導要領に基づいた設問自動分類タスクにおける語の集約による有効性評価, ○名嘉真之介,當間愛晃,赤嶺有平,山田孝治,遠藤聡志(琉球大)


    naltoma: 「そして」が多い。
    naltoma: 時間上省いたと思うけど、どのように「語の集約」をしたのかが分からない。
    naltoma: 集約結果での「誤分類事例の分析結果と考察」は、
     説明がスムーズじゃなかったことに加えて図の意味が良く分からず、
     伝えたい事が良く分からなかった。


    Q: TFIDF使ったようだが、グラフや質問形式による言葉と内容に関する言葉があると思うが、
     今回は同じように扱ったのか、除外等特別扱いしているのか。
     分野には寄与しない単語はどうしているのか。
    A: グラフ等の単語が出た場合には設問外情報を利用している。
    Q: 分野に寄与していない単語を除外してはどうか。
    A: 除外したいが、難しい。

    Q: 最後の提案は自動化できる?
    A: 今の所手動でやっているため、自動化したい。
    Q: 分類においてはどうでもいい単語とか、どう展開して欲しいということができると嬉しいと思うが、
     トピックモデルで表面上少しはできるが、具体的なトピックについてやっている訳ではない。
     そこがポイントかなと感じた。

    情報処理学会 第75回全国大会2日目

    木曜日, 3月 7th, 2013

    m_201303070840225137d3e604001 m_201303070849175137d5fd5688b

    情報処理学会全国大会1日目が終了しました。NAL研メンバは慶留間くん山内くんが終了。二人の発表時間が完全にブッキングしていたので、初学会の慶留間くんを優先して山内くん側はお任せ状態で。就職活動やらKESやらいろいろタスク山積みになってることもあってか山内くんは「自己評価で過去最悪」だったらしい。ま、それでも自分から終了後に座長とやり取りして得られるモノがあったらしい。慶留間くんは、初発表ということで緊張しまくってたらしいですが、発表自体は安定してて聞きやすかったです。質問も会場から2件適切なものが出たのでちゃんと伝わってたんじゃないかと。後は問題設定さえちゃんとできれば、会場でのやり取りを意識することに少しずつ慣れるぐらいで良さげじゃないかと。

    午前に参加していたセッション「生成・要約・文書作成支援」では、東北大・伊藤先生らの張さんが発表した「やさしい日本語作成支援のための言語圏を考慮した日本語難易度自動推定」が学生奨励賞をゲット。うろ覚えですが去年も貰ってたような(?)。同じテーマでちゃんと実験&分析進めてるという内容は当然として、問題設定の点でも自分でもこれが頭一つ抜けてるなと思いました。(セッション終了後にわざわざ挨拶に来たのも含めて、うちの学生への良い指導になりましたw)

    午後は、「情報抽出・DB技術一般」とシンポジウム「情報をライフラインに」とを往復しながら聞く形に。シンポジウムのログはテーブル無し大会場だったこともあって、詳細ログというよりは印象深く残ったキーワードをメモ書きしています。

    終了後は遠藤先生呼びかけで喜助にて合同宴会モードに。牛タンの塩焼き/ビーフシチュー/スモーク、テール焼きを堪能。ごちそうさまでした! 例によって食べ過ぎたので写真はtwilogを参照w


    学生セッション[3Q会場], 生成・要約・文書作成支援 座長 高村 大也(東工大)


    3Q-1文章のリズムを考慮した小説執筆支援システムの作成, ○齊藤雄大,長谷川大,佐久田博司(青学大)

    執筆者の意図する文章のリズムに近づけるような小説執筆支援システム
    文章リズムに影響する要因調査


    naltoma: 相関係数の絶対値を重みとする??
     -> そもそも符号が一緒だったらしい
    naltoma: リズムレベルを7段階に分けた理由は?


    Q: 文章の無いように踏み込んでも良いのかと思うが、どうか。
     長い文章でも特定パターンが含まれている場合とか。
    A: リズムに影響するとは考えられるが、今回はまだ考慮していない。
     単純に表層的な材料のみで判定を行っている。
    Q: そのまま表層的なもので改善していくというのは何を狙っている?
    A: 日本特有の57調、ですます調とか。

    Q: プロの小説家の人だったり、夏目漱石みたいな良く読まれている小説があるが、
     そういう人たちのリズム感は想定されるリズム感としてあっているかどうかを
     客観的に正しいかを調べる事ができそうだが、どうか。
    A: プロ作家等も含めた評価をしているが、感覚的には判定が一致しているように
     見える文章がいくつかあるようにみえる一方で、おかしい判定結果もある。

    Q: そもそもリズムの定義がないままだったため、
     そこを詰める必要があるのではないか。
    Q: 互いに相関している要素もあると思うので、今回のアドバイスが本当に適切なのか
     についても検討して欲しい。


    3Q-3ヘルプテクストを対象とした修辞構造解析システムの実装と改良, ○安達昌吾,杉本 徹(芝浦工大)

    知的ヘルプシステム
     意味内容解析+適切なヘルプ選択
     ヘルプ構造解析+分かりやすく言い換え
    ヘルプテクストの言い換え
     修辞構造解析、構造ベースで言い換え
     節間の修辞構造解析:言語表現による推定、動詞ペアによる推定、修辞関係による推定
      *各々手動構築したパターンマッチングっぽい
     文間の修辞構造解析:言語表現による推定、修辞関係による推定


    naltoma: 最初の例では言い換えというよりは分割に見えるが、
     どういうレベルでの言い換えを想定している?
    naltoma: ヘルプ記述文の分かりにくさとしては修辞構造が大きな要因?
     分かりにくい文に対象を絞った場合の精度は? 分かりやすく言い換えられた?


    Q: 改良して良くなったかどうかが分かりにくい。
     2007データを見ながら改良する事を目指しているようだが、
     改良前後とでどう変化したかを見る必要が無いか。
    A: 改良したシステムは、改良に使っていない新規テキストで評価をしている。
     アルゴリズムの元になっているため、高い精度が出るだろうという前提で
     関連していないテキストで実験を行っている。

    Q: 改良ポリシーとして、2007ではこうこうという話だったように思うが、
     何を作ろうと目指している? 2007がより一般的なテキスト?
    A: どちらが優劣という話ではなく、問題点に対する改善を行った。
     元のテキストで精度が落ちないように改善している。


    3Q-4やさしい日本語作成支援のための言語圏を考慮した日本語難易度自動推定, ○張  萌,伊藤彰則(東北大),佐藤和之(弘前大)

    日本語に不慣れな外国人にも理解が容易な日本語
    日本人と外国人が感じる日本語難易度は異なる->定量的な難易度推定
     日本語難易度に関する知覚の解明
      日本人が外国人の感覚を推定できるか?
      外国人同士では同じ難易度か?


    naltoma: 日本語の難易度をスコアとして評価しているが、
     点数のような定量的評価が適切か?
    naltoma: 「日本人で学習したモデル」とは、日本人が「こういうのが難しいだろう」
     という推定で作られたデータで学習したもの?
     -> 推定で評価したものだが、精度が落ちた。


    Q: 特徴量が単語レベルとか係り受けとか4種類あるようだが、
     個別に見ていってどのぐらい寄与していたかは見た?
    A: 個別に相関係数をチェックした。

    Q: 外国人のデータで学習することが重要だという結論が出たが、
     その中における個人差はどれぐらい影響しているかが気になる。
    A: 漢字圏同士では大体似ている(正の相関が高い)。
     個人差はあると思うが、似ているという理解。

    Q: 音素とか聞きづらいものがあると思うが、
     そこら辺についての検討はしていく?
    A: 今回は文章が対象。
    Q: 災害時にはスピーカーから発音されるので、テキストではなくて音で出力される。
     音で聞きやすいものを考えたものが良さそうに感じた。
    A: 聞く方も検討は必要だと思う。

    Q: 難易度をいろんな特徴量を使ってモデル化するという話は昔からいろいろあると思う。
     その中で、今回の手法がどういう位置付けなのかを調べてみるのが学術的にも重要。


    3Q-5日本語推敲支援のための文の語順整序, ○田中麻祐子,大野誠寛,加藤芳秀,松原茂樹,石川佳治(名大)

    読み難い文が入力されたとき、係り受け精度が大きく劣化
    係り受け解析と語順整序を同時に行う


    naltoma: どういう状況や対象に対する推敲支援を想定している?
    naltoma: 「整序前のものと係り受け構造が同一」という前提は良いの?
     係り受け解析できる文が対象ということ?


    Q: モデルの学習の話があまりなかったが、
     ある特定の語順である確率とそこからの係り受けが必要になると思うが、
     どういう処理を行っている?
    A: 京大コーパスで、特定素性の条件付き確率2種類を独立して求めている。

    Q: 探索アルゴリズムが近似ということだが、
     どういう近似になっている? どの辺の計算を省いている?
     どこをうまく効率化している?
    A: 全パターンを考慮せず、後方修飾性、非交差性を考慮したパターンのみ考慮。


    3Q-6自然言語処理による日本語文章の自動生成, ○杉本 亘(関西学院大)

    欠席


    3Q-7物語生成支援環境の提案, ○田所裕喜,岸 義樹(茨城大)

    物語生成の簡易化、効率化(作業時間短縮、設定管理)
     設定情報の管理
     基本的なストーリー設定
     プロットの出力


    naltoma: どういう状況を想定した支援?
    naltoma: 登場人物の行為に付随していた「記号」とは? ただのユニークなキー?


    Q: 昔話のクラスを設定しているようだが、現代風やロボットとかライトのベルトかでは
     そのクラスだけに当てはまらないものが多くあると思う。今回は昔話特化ということ?
    A: 最終的にはそういう所も狙っていきたいが、今はその通り。

    Q: Evernoteとかいろいろ使って作る事ができると思うが。
    A: 複雑な物語を作っていくとそのようなものが向いていると思うが、
     対象としては物語生成に慣れていない人への支援。

    Q: プロップの枠組みを基にしているとのことだが、
     どこがオリジナリティのある箇所?線引きが良く分からなかった。
    A: プロップの話をそのまま使うのではなく、大きくカテゴライズしている。
    Q: まとめ方がプロップの枠組みには無い?
    A: ベースではあるが、それをまとめて作った。


    3Q-8強化学習を用いた自動要約における学習手法の比較と考察, ○慶留間諒大,當間愛晃(琉球大)


    naltoma: ちゃんと事前に投影テストやろう。
    naltoma: どういう状況を想定していて、どういう要約を生成したい?
    naltoma: 良い意味では安定してて聞きやすいが、悪い意味では平坦。
     教室後ろで聞くには声が少し小さい。
    naltoma: ROUGEは一つの指標だが、どのぐらい適切なのか?
    naltoma: 最後はスライド消さない。


    Q: 文章要約は、文の集合の要約なのか、単文に対する要約なのか。
    A: 今回は文章のみです。単文毎は行っていない。
    Q: 単文の要約にも使えると考えている?
    A: 先行研究では単文を考慮したものも検討している。
    Q: 両方にRLを使うと解の探索には非常に時間がかかる?
    A: その通りだと思う。

    Q: 考察で要約結果似たような文を選択したという話があったが、
     冗長性のある文を選択しないためにはどうしたらいいだろうか?
    A: 予め似たような文同士をまとめて同じ状態にしてしまう方法も一つ。
     報酬の与え方で調整する方法も考えられる。


    3Q-9トピックを考慮したグラフ表現に基づく複数文書要約, ○北島理沙,小林一郎(お茶の水女子大)

    潜在トピックによる文書処理:LSI, PLSI, LDA,,,
    複数文書要約(グラフに基づいた手法)+潜在トピックに基づいた文書処理(LDA)
     LexRank:多くの文と類似している文は重要度が高い
     LexRank にトピック概念導入
      トピック分布推定、類似度グラフ生成、重要度計算、ランク付け
      MMR指標の導入により冗長性のある文選択を防ぐ
      -> 類似度グラフ生成は重要だが、MMRは精度に対汁効果は薄い


    naltoma: レビューなどが対象の場合、多くの文と類似している文が重要という仮定はどのぐらい妥当?


    Q: 複数の文書を分析するということだが、一つのファイルに複数トピックあるということなら、
     マージして複数のトピックがある一つのファイルがあると扱っても平気?
    A: 今回のケースでは問題になりにくいとは思うが、分布次第だと思う。

    Q: 実験結果でパラメータ調整により一旦下がった後で上がっているのは何故?
    A: 重みの掛け方を詳細に見る必要があるが、
     少し居れるよりは頼り度合いを強めた方が良いという結果だという解釈。

    Q: MMRで、2項目は表層的な類似度のようだが、
     トピックを用いた類似度はできない?
    A: できる。ただし、ここでは表層的な類似度が強く影響していると想定した。

    Q: 右上がりの結果だが、このまま上がり続ける?収束する?
     第2項がマイナスの値の方が良かったりする?
    A: その可能性はあると思う。今回は正の値しか考慮していなかった。


    学生セッション[4P会場]情報抽出・DB技術一般 座長 牛尼 剛聡(九大)


    4P-1制約のある条件下でのテキストからの有効な情報抽出技術について, ○津田和俊,工藤純一(東北大)

    制約のある条件下でのテキスト
    文字制限が厳しい e.g., アブスト, 新聞記事
     前後の文脈から人間には明らかである情報を省略したり、同じ項目繰り返しを極力避けることが多い
     動機:著者が指定したキーワードが適切とは限らない
    単語頻度では特徴が現れにくいケースがあるので、2単語間相関考慮して重み調整
     単純な統計処理で10語前後の短いテキストでも識別できる
     誤検出が少ない
     専門辞書が必要なく、一般の単語が交じったまま処理できる


    naltoma: 一般的な文書分類とは何が違う?


    Q: 目的は、カテゴリに分類すること?
    A: カテゴリ分類とキーワード抽出。
    Q: 両方とも評価している?
    A: キーワード抽出はもともと成績が良くない。
    Q: カテゴリは何カテゴリある?
    A: 全体で20ぐらい。選んだ論文数にもよる。
    Q: 単純カテゴリだと単純な分類であればいろんな機械学習が使えるようにも思うが、
     今回のポイントは?
    A: そのものズバリのキーワードが出て来ないものが対象。
     TFIDFでは0になる。
    Q: TFIDFでなくても頻度ベクトルでも答えカテゴリが分かるなら機械学習できそうだが。
    A: そのものズバリの単語が出て来ないので困難。
    Q: 古典的な問題で、やられているアイデアもシンプルに見えるが。
     関連研究を調査したいという話もあったが、どのぐらい進めている?
    A: そのものズバリの単語が抜けているという研究があまりないように見える。
    Q: 単語が抜けているというのがよくわからない。
 カテゴリ名や必ずしも特徴的な単語がなくても良いはずだが。
     t検定どうのというのはあるかもしれないが。
     より一般的で汎用的なものと違いを明確にするようにしてみると良いのでは。


    4P-2くだけた文章からの感情抽出, ○石上直孝,筧 捷彦(早大)


    文章から著者の感情を推定したい。
     同じ単語でも異なる感情を表す事があるため、表象情報だけでは限界がある。
     パターン辞書は単語辞書に比べて成熟していない
      用言パターン:用言とそれに係る名詞の組み合わせ
      文末パターン:句点や顔文字など、文の終わりに出現するパターン
       パターン自動生成+機械学習


    naltoma: 「くだけかた」には時代や組織構成メンバによってパターンが大きく
     異なりそうだが、今回用いた「パターン生成」では考慮しなくても良い?
     (生成パターンの準備方針は何かしらある?)


    Q: 一つの表記に複数感情を付与するようだが、マルチラベル?
    A: 8個の感情があり、1件ずつ個別に判断。感情毎に一致率で評価。
    Q: SVMは何のために使った?
    A: 文末パターン判定を学習。多クラス。

    Q: 3人被験者での2/3の一致で問題無い?
    A: 人によって差が合ったので少ないかもしれない。
     実験データとして数多く必要のため、今回は3人。

    Q: 動機として助詞とかが省略されると困るという話があったが、
     構文解析使っているが、どういうポリシーか。
    A: 構文解析に困るということではなく、助詞の有無にも対応したパターンを
     用意する必要があるということが問題点で、今回はそれに対応した。

    Q: 徳久らの先行例をベースラインにしていないのは何故?
    A: 手動構築で手に入らないため。


    招待講演-2(大会招待講演-4) 地震防災におけるビッグデータ, 青井 真 (独立行政法人防災科学技術研究所 地震・火山防災研究ユニット 地震・火山観測データセンター センター長)

    地震・火山観測方面の専門家ということで地震にまつわる話を「地震前の教育的段階/直後の緊急速報段階/一旦落ち着いた後の段階」ぐらいに分けて具体的な事例をいろいろと話されていました。

    個人的に印象深かったのは「地震観測網としては全国約2000地点。これで現状の地震速報レベルの粒度を達成しているが、本来は揺れそのものを知りたいのではない。知りたいのは被害状況やそれに伴う対策の必要性などだが、現状の計測数規模(≒マクドナルド店舗数並み)では全くオーダーが足りない」という話。これ以上国からの支援ベースで規模を劇的に増やせる見込みも無いが、スマホ(深度2以上なら十分な精度らしい)やそれ以外にも安価に個人レベルで計測&配信できる機器が開発できてきているので、ソーシャル化することで例えば「ある建物の地震前後で揺れに対する弱さ」が分かるようになる時代に届くかもしれないとのこと。


    パネル討論【第一部】震災時の情報伝達を振り返る

    途中別セッションに行ってたので、後半の間山先生と司会の石川先生の話ぐらいしか聞けてないのが残念。

    医療現場の間山先生からは、被災してから暫く(数日)は「現場の人は安否確認すらできないぐらいインフラが死んでいた。電気通信は4日後に某社が繋がり始めたが他社は全く駄目で、その時の絶望感はとても強い。安否確認すらできない日が続いたが、それでも患者を目の前にすると無理してでも尽くしてしまう。「無事」の2字伝えられるだけでも心の平安が保てるから、何とかならないものか」という話。

    その後の石川先生のまとめや会場との討論を聞く限りでは、情報を串刺しにすることを前提として3種類のライフライン「生命を繋ぐライフライン/未来を繋ぐライフライン/こころを繋ぐライフライン」が必要だろうというサマリでした。「情報串刺し」というのは、現場では情報が錯綜していて活用できていないとか、そもそも共有化されていないといった状態の解決が必要という話。「未来を繋ぐライフライン」は、現場の人は「今後自分の人生がどうなっていくのかが分からないままに時間が過ぎていく」ということへの問題提起。例えば、新しい住宅は必要だが、数百年の歴史が刻まれた森林を完全伐採してまでやらなくても必要最小限にすることはできなかったのかとか現場の人は思うが、伐採されてしまう。必要なor欲しい情報が互いに行き届いていないので何がどこでどうなっているのかが分からず、将来が見通せないという話。


    パネル討論【第ニ部】情報ライフライン化の技術

    総務省の谷脇先生や慶応義塾の神成先生からは、オープンデータ等情報公開することとそれらを組み合わせて何ができるかの実績作りや検討を進めていくというような話。コンピュータ処理可能な形でデータを公開する事の必要性と、それによるメリット・デメリットの検討をしつつ、どのような形でどのように公開すべきかを他省庁に提示する形で牽引している途中とか。予定より既に1年遅れになってるが、そこは国会通るように祈るしか無いとのこと(ですよねー)。震災に絡んだデータ公開としては国立国会図書館NDL東日本大震災アーカイブ「ひなぎく」として公開されてるらしい。

    震災後から現場入りして復興に携わっている神成先生の事例としては、やはり現場で音頭をとるには「お昼に仕事としてやりとりするだけでは駄目で、飲食共に夜も付き合うことで相手の本心に近づく事ができ、そこで初めて本当の意味で支援が始まる」というような話。人間系なので仕方ないだろうなとは思う。保守的な人が多いのは事実だが、一度入り込んで共にやるという形に入り、成功事例を出せれば後は一緒にやろうという人は増えてくるとのこと。コミュニティ作りも本気で取り組もうという地元の人探しもあれもこれも結局は現場に入って時間かけてやるしかないよね、という結論。ちなみに公益信託JCB東日本大震災に負けない子どもたちの未来を応援する奨学基金なるものも立ち上げて、JCBさんが本腰入れて震災孤児への奨学金給付も頑張ってるらしい。

    Googleの賀沢先生は、「正確&迅速&(その人にとって)適切な情報の提供」実現に向けてゆっくりと、だけど諦めず一歩ずつ歩み続けているとのこと。企業としての宿命で大震災というレアケースに対して大きなコストをかける事は困難だし、他企業との連携も緊急時には契約とかしてられないので、互いに同じゴールを目指して阿吽の呼吸で進んでいたことが「第三者からは協力しているように見えた」のかもしれないが、企業側としては「ツールを提供」していたに過ぎないという立場らしい。Googleクライシスレスポンスとして今後も努力を継続するし、通常時のうちに協力契約等も少しずつ進めているとか。

    情報処理学会 第75回全国大会1日目

    水曜日, 3月 6th, 2013

    m_201303060836055136816525e71

    情報処理学会全国大会1日目が終了しました。NAL研メンバは玉城くんが終了。良いコメントというか想定通りのコメント貰えたんじゃないかと。

    昼過ぎには招待講演2件があったんですが、満席で座れず(立ち見があるぐらい盛況)、Ustreamもやってたっぽいんですが個別に見ざるを得ない状況だったので諦めちゃいました。

    東北大学構内にはあちこち雪解け気味に残ってたり、仙台城付近の池が全面凍ってたりで思ってたよりも雪を楽しめましたw

    個人的に参加したセッションは以下の通りです。午後のセッションは途中(4件目)まで2Mで、途中(5件目)から2Pに移動しました。個人的に気になってた発表は意図に基づくコンテキストアウェアサービス提供モデルの提案でしたが、思ってた以上に「理想空間上でのシミュレーション」という位置付けで気になる点は「できるものとする」前提になっちゃってたのが残念でした。難しいから仕方ないだろうとは思いますが。

    晩ご飯は気仙沼食堂で、ホルモンやら焼きそばやらあれこれ堪能しました。食べ過ぎですw 写真多すぎるのでtwilog参照。

    以下、セッション毎のメモです。


    学生セッション[1ZE会場]教育効果の分析・調査・評価 座長 西田 知博(大阪学院大)


    1ZE-1初等教育の算数科授業におけるICT機器活用が児童の話し合いに与える効果の多角的視点による検討, ○阿部 俊,後藤裕介,南野謙一,渡邊慶和(岩手県大)

    キャンセル


    1ZE-2課題提出を支援するリマインドシステムにおけるアドバイス機能の検討, ○谷村 祐,西田滉季,田中穏識,納富一宏(神奈川工科大)

    対象;課題の存在を忘れる、スケジュール管理できない人
    対象種別毎のアドバイスパターン
     1. 意欲はあるが能力が足りない学生、期限までの残り時間が短い場合
      ->課題内容に対するヒント
     2. スケジュール管理が得意でない学生
      -> 課題期限や取り組み方
     3. 意欲、能力共に高い学生
      -> 講義に関する専門的な情報
     4. 意欲、能力共に低い学生
      -> 講義に関する基礎的な情報
    アドバイス提示タイミング
     a. 時間で自動的に提示
     b. ユーザの要求、反応で提示


    naltoma: 余裕を持ってリマインドされたら行動するの?
    naltoma: 受動的な学生に対してアドバイス等による積極的な関与によりある程度
     課題提出を支援できたとして、そのような学生は卒業後意欲を持って働くことが
     できるのだろうか?(場当たり的な支援になっていないか?)


    Q: アドバイスの機能としていくつかあげられていたが、だれが用意する?
    A: 現時点では教員負担。将来的には生成できるようにしたい。
    Q: レポート提出期限で1週間とかあると、その間ほったらかしにできる期間というのはどういうこと?
     どういうレポートを想定している?
    A: やらなくても良い時間というか、学生が受講している講義は複数あり、
     どの順番で取り組むかということを考えると期限が迫っていないのは優先度が低いとか。
     そこで後回しにした結果、忘れてしまうということがある。
    Q: 緊急のものから対処しようというアプローチ?
    A: その通り。課題の内容も考慮したいとは考えている。

    Q: 何故Androidのポップアップにする? 汎用性としてはメールの方が高いのでは?
     端末限定をしてしまう。
    A: メールの場合は自分でアクセスする必要がある。
     確認しない学生、メールが沢山来る学生は忘れてしまう。
     ポップアップでは閉じる作業するまでは表示し続けることが可能。

    Q: どういう形で学生が出すべきか、〆切間際はもっと細かい区分けが必要だし、
     どういうアドバイスを用意するかにも関わってくるが、
     どのように支援するかを考えたシステムを検討すべきでは。


    1ZE-3作問演習における作問者の出題意図と主観的な学習効果との関係性, ○井上裕之,佐々木淳,山田敬三,高木正則(岩手県大)

    作文学習支援システム
     利用者が学習効果を得られることを保証したい
      主観的な学習効果に影響を与えている要因を抽出
    出題意図
     自己学習/解答者の学習/作りやすさ


    naltoma: 主観的には学習効果がなかったと答えた学生は、どういう学生だった?
     何が要因だった?


    Q: 直感的には、得点が低い人に他人に役立つ問題作成するよう指示しているが、
     得点が高い人がやる話に思う。
     得点が低いから自分ができるように作るというのが自然ではないか。
     何故得点低い人と高い人とでタスクを分けたのか?
     両方とも混ぜて差を見るのが普通では?
    A: 理解度が高い人が作りやすい問題を作る意図を持たせた方が良いと考えたから。
    Q: その仮説が正しいか分からないので、十分な人数がいるなら両方のグループで
     両方のタスクをやらせるべき。


    1ZE-4勉強スタイルによる個々の差異と実力の推移に関する調査, ○玉城 翔,當間愛晃(琉球大)


    naltoma: 傾向(分類ルール)抽出するにしては属性が少なすぎるのはやっぱり気になる。
    naltoma: 決定木は適宜見やすく編集しよう。
    naltoma: 発表終了後のスライドは結論なり今後の課題なりを残したままにしよう。
    naltoma: 勉強スタイルについての傾向や違いが見られたとして、何をどうしたい?


    Q: 考えている「スタイル」というのはとても分類しにくい。
     クラス毎に決まった教科書があるとある程度定義できそうだが、
     いろんなユーザが混在していると定義しにくいのでは?
    A: やってみないと分からないが、今回は英語に限定してみている。
     目的や有名な教材によってスタイルに共通性が見られることを想定している。

    Q: 今回分かった3点について、見方によっては分析しなくても出るような結果になってて勿体無い。
     毎日やる人ほど点数上がりやすい、上の人ほど伸びにくい、レベル毎に適切な教材があるとか。
     うまく問題設定をすべきでは。
     いろんな人がいるところでやりたい気持ちは分かるが、
     ある一つのテキストに絞り込むとか、ユーザ層を絞り込むとかしてみた方が良いのでは。


    1ZE-5クラスタ数の変化点検出を用いた授業アンケートの分析, ○天野恵理子,大枝真一(木更津高専)

    病欠


    1ZE-6ご当地検定における「面白い」・「役立つ」問題の分析, ○奥津翔太,菅原遼介,古舘昌伸,高木正則,山田敬三,佐々木淳(岩手県大)

    地域に興味を持って欲しい
    ご当地検定
     解答者が地域に興味を持ってもらえるような問題
     要望:解答後の面白い・役立つ度合いの観点から項目を検索したい


    naltoma: 面白さは流行など時間軸にそって変化するものでは?
     プロフィールとしては何を想定している?
    naltoma: 「知ってる単語や興味」はどう分析する?
    naltoma: ある意味で、広告や推薦モデルに近い問題設定?


    Q: プロフィールの感じ方とは?面白いかどうか?
    A: 今回は面白いか、役立つか。

    Q: 仮説と異なる結果が出たとのことだが、
     どちらかというと結果の方が尤もらしい仮説として採用しそうに思う。
     何故今回の仮説を立てた?
     ご当地検定にトライする人は既に興味があるのでは。

    Q: 総数が10数名のようだが、これは別途やったもの?
    A: 別途やってもらった。
     キーワード知ってるかの確認後に、解いてもらった。
     既に解いてた人も被っている。


    1ZE-7ソフトウェア信頼性モデルを応用した大学等における原稿作成プロセスの定量的評価, ○土井 崇,奥田隆史,井手口哲夫,田 学軍(愛知県大)

    問題意識:原稿作成プロセスの終了時間が個人差に強く左右される
    原稿作成プロセス
     プログラムコードと捉え、作成原稿は学生の原稿作成・修正スキルに依存したエラーを含む。
     教員の推敲・修正間隔と学生の原稿修正スキルが完成時間に与える影響を
      ソフトウェア信頼性モデルを応用した確率モデルで検証。


    naltoma: プログラムコードの場合、テストを用意できるはずだがこの違いは無視して問題ない?
    naltoma: 平均75日??


    Q: いろんなタイプが出てきたが、原稿作成指導、論文添削ということについて、
     グループ学習とか創造的活動というのはあまり使わない気がする。
    A: 原稿作成を含めて研究を進める過程で行う。
    Q: 多分想定が変わっていて、原稿作成するのはある程度研究に目処が付いた
     時点でのアウトプット。

    Q: ソフトウェアでのモデルを導入するのは面白いが、
     このモデルが原稿パターンとして現れているかの意味付けをちゃんと見て欲しい。
     例えば logistic, gompertz は具体的にはどういうのを想定している?
    A: 理解度が足りないケースで、ある程度理解度が高まってくることで修正スピードが高まるパターン。

    Q: リニアが理想的というのはそう?
    A: 75日前提では promotion, exponential が良いと考えている。
    Q: モデルを立てるのは良いが、現実がどうなのかということとリンクさせて欲しい。

    C: リニアでやってくれると、学生が沢山居る立場からは嬉しい。
     急激に良くなる人もいる。下がるが最後まで残ってしまう人もいる。
     論文書くのはそれ自体が創造的活動だと思う。


    1ZE-8採用面接における非言語行動の印象改善方法の提案-話速改善による面接評価への影響調査と分析-, ○渡辺智美,中村亮太,上林憲行(東京工科大)

    面接をコミュニケーションの場と捉える
    相手に与える印象改善
     面接評価に与える影響を調査:声の大きさ/話速/言い淀み
      模擬面接実験
       客観的(モニタリング)評価と主観評価の相関をみる
       相関の高さからは:声の大きさ>話速>言い淀み


    naltoma: 非言語行動の印象として今回検証した3項目を選んだ理由は?
     それ以外の項目が影響強いとは考えられない?
     何となく暗そうとか。
    naltoma: 模擬と本番とでの違いは?(特に主観評価している面接官の視点から)


    Q: 面接ではレスポンスが大事だと思うが、今回の実験ではどうだったか?
    A: 面接は3つの設問で構成し、それに対して学生が答えるという流れ。
     自己紹介の時に計測した。
Q: 今後はレスポンスの測定もやる?
    A: そこは想定していない。

    Q: 話す内容よりも90%強が内容以外のことを聞いているとのことから始まっているが、
     50%強が姿勢や動作とかいろいろある。貧乏揺すりとか視線を合わすとか。
     話し方を変える事によって改善される?
    A: 今回は話し方に着目しているが、見た目に着目している点では別の人が検証中。

    Q: 面接者と学生の距離は?
    A: 机を挟んで 2m 程度。
    Q: 実際の面接ではまちまちだが、どう対応する?
    A: 60dBであれば聞こえるという判断は可能。
     距離については変わってくると思うが、大丈夫だという想定。

    Q: 話速は早ければ早いほど良いというモデルだったが、早すぎてもだめでは?
    A: 分速500字以上でも高い評価が得られた。
    Q: 面接官にもいろいろいると思うが。
    A: 2名の面接官が面接後に話し終わって評価をしている。


    1ZE-9化学実験安全教育システムにおけるメッセージ内容及び提示方法の検討, ○伊藤香織,田口宏明,藤波香織(農工大)

    ビデオによる一斉教育:実際の操作とのギャップが事故に繋がる恐れ
    先行例:A3(A-cube): ARを利用した化学実験安全支援
    化学実験安全教育における質問提示の有効を検証したい


    naltoma: 失敗件数上位を対象にするのは良いが、失敗のマズさは優先しなくて良い?


    Q: どういう割合で何に気をつけるかというのは?
    A: 共通して気をつけるべき部分が見えてきたので、それを示唆するようにしたい。
     手を動かしている最中が良いが、危険な操作に関しては動画学習が良いとも考えられる。

    Q: デバイスによると思うが、眼鏡デバイスが出たら使えそう?
    A: 使えると思う。現状ではプロジェクターを利用。
     ヘッドマウントディスプレイのようなものの方がより現実的だと思う。

    Q: 実際に、専門にやっている学生が使ったとしたらどうだったかという調査はしている?
    A: A-cubeは化学実験に習熟していない学生が対象。
    Q: データはそれで良いと思うが、結果に対する分析について熟練者はどう感じる?
    A: 良いことだと言うコメントを頂いている。
    Q: 専門では専門で行き過ぎているので、中間程度のあまり習熟している学生に対して
     やれると良さそうに感じた。


    1ZE-10学校向けUSBメモリ貸出システムにおける不用意な情報持ち出しへの対策強化, ○上枝俊太,納富一宏(神奈川工科大)


    Q: USBメモリの貸出しは1日?
    A: 基本的には1日。
    Q: そうすると管理者側が煩雑では?
    A: USBメモリの管理者という立場が複数人間で分担することで軽減することを想定。

    Q: 現場で使ってもらった?
    A: まだ。
    Q: そこでのインタビューをして欲しい。
     責任者といっても情報管理者とかに集中する可能性が高い。
     もともと業務があるなかで更に別業務が集中すると大変。

    Q: データ持出してはいけないデータというのは本当に難しい話。
     どう対策することを考えている?
    A: データ重要度に応じて、高いものについては適宜アラート提示するとか。


    学生セッション[2M会場], 要求・アーキテクチャ 座長 坂田 祐司(NTTデータ)


    2M-1新規ビジネスモデル構築プロセスの提案, ○熊坂拓哉,大場みち子(はこだて未来大)

    失敗要因の一つ:システムとニーズの不一致
    リーンスタートアップ:ニーズ把握してから開発+ユーザフィードバック(Minimu Viable Product)
     欠点:他マーケットに利用することを想定していないことによるユーザ限定
     ニーズのある機能をリスト化とニーズの逐次見直し


    naltoma: 機能リストは全てゼロイチであるという仮定をしているように見えるが、
     実用上それで問題無い?(同じ機能でも満足度が異なる実装は多々あるはずだが)
    naltoma: 実際の現場では似たようなことがやられていない?(ニーズ把握+フィードバック調査)


    Q: 設計手法がポイントなのか、ビジネスモデル自体がキーなのか?
    A: 主にビジネスモデルに着目してアプローチを考えた。
    Q: だとすると、今回はニーズもターゲットも決まっているように思えるが、
     もっと広範囲を意識する必要は無いか?
    A: リーンスタートアップではまずニーズを把握してから開発する。
     そこを拡大したアプローチになっている。メリットを取り入れつつ、
     デメリットを解消したアプローチ。
    Q: どちらかというとアジャイル開発に近いように思うが、同じ?違う?
    A: リーンスタートアップはアジャイルに似ている所がある。
     はじめの段階で最小限の機能から作っていくという点では違うと思う。
    Q: オリジナリティは?
    A: マーケットの拡大というプロセスを付け加えた点。

    Q: 機能リストと優先順位毎に作っていくとのことだったが、
     顧客ニーズに基づいて作るとコスト度外視になると思うが大丈夫なのか?
    A: 今回はあまり想定していなかった。
     必要な機能を作っていくということで、いらない機能は除外するという流れ
     になっているため、費用は削減されていくと考えている。


    2M-2形式的ソフトウェア合成手法における再利用部品群の決定, ○熊谷 恒,織田 健(電通大)

    自動コード生成
     欠点:部品整備コスト、パターン自体に誤りが混入する可能性
    形式手法
     欠点:開発時間の増加、適用領域が限定
    MSSS手法:部品再利用&自動合成
     B Method による高信頼+自動合成による低コスト


    naltoma: MSSSでの開発はどのように行う?


    Q: まだ開発中とのことだが、実際のシステム作る所で使う予定は?
    A: MSFC生成がまだ理論的に可能だろうという段階。
     後々実際の事例に適用してみたい。
    Q: 後々で構わないが、どこら辺が有効?
    A: B Method で記述できる範囲内なら適用可能。
     時相論理は使うことができない。時間が関わって来ると困難。


    2M-3The Encapsulation of the quality, ○齋藤大輔,山浦恒央(東海大)

    productivity and quality software reusing
    reuse of quality (quality encapsulation)
     1. quality assurance
     2. evaluation of the quality
     3. reuse of quality


    Q: ここで言う「品質」の定義は? レベル1,2,,の例を見ると、一般商用システムで考えると、
     レベル5まで普通にやっているので分けることの意味がよくわからない。
    A: ここで言う品質は、バグがなかったりとかきちんと動くとかいろんなものが含まれる。
     今回のは一つの例であって、まだ深堀していない。


    2M-4意図に基づくコンテキストアウェアサービス提供モデルの提案とカーナビゲーションシステムへの応用, ○牧 慶子,中道 上,青山幹雄(南山大)

    ドライバの意図の変化に応じて適切な運転支援を行うコンテキストウェアなサービス提供
     コンテキストの影響による意図の変化の理解
     意図に応じてサービスを選択するサービス評価手法の構築
    意図=ある時点におけるユーザの関心事
     ユーザに関与するコンテキストの属性値を意図とし、ベクトル空間モデル化
     意図ベクトルとサービスベクトルの近さで意図の達成度を評価


    naltoma: 「ドライバの意図に影響を与えるコンテキスト」はどう推定/特定する?
    naltoma: 意図とサービスのマッチングではなく、意図に対してどう支援すべきか
     の仮説とのマッチングになってない?
    naltoma: 意図に影響を与えるコンテキストを特定可能とのことだが、
     そもそもモニタリングできる前提だからであって、それをどうするかが問題のままでは?


    Q: サービスの特徴量は、システムにおいて固定?
     ユーザは変化しうるが、用意されたサービスが必ずしも適当とは限らないのでは?
    A: サービスが持つコンテキストは固定で、ユーザ側のコンテキストは膨大。
     意図ベクトルとして同じ空間で評価。
    Q: 「ラーメン食べたい」とかの意図はどう図る?
    A: 食べたいものを1、食べたくないものを0。
     お店の例でも0か1。
    Q: 01では実際には不足していると思うが、
     そういうのをユーザ毎に正確に測る研究は既にやられている?
    A: まだ分からない。

    Q: 意図ベクトル測り方としてデルタiとのことだが、一定間隔?
     一定間隔だとすると、そこに依存した結果にならないか?
    A: 今回の例の10分、30分というようなスパンではなく、
     その間で意図が変化してしまう可能性という話だと思うが、
     今回は大きなイベントがあった際に意図が変化するというストーリーで行った。
    Q: 感覚的には、間隔の取り方次第でベクトルの振れ方が大きく変わるので、
     そこを検討すべきでは。


    学生セッション[2P会場]情報推薦 座長 土方 嘉徳(阪大)


    2P-5携帯電話向けコミック検索サイトのログデータを用いたユーザの行動特性分析, ○林 育実(芝浦工大),神林芙沙恵,柴崎康裕(アクセルマーク),徳永幸生,米村俊一(芝浦工大)

    コミック検索の行動パターン
     トップ->検索->検索結果->詳細->外部配信サイト
     トップ->詳細
     トップ->ランキング
     一連の行動をセッションと定義(間隔は15分)
     レコード要素:ユーザID、アクセス日時、遷移元URL、遷移先URL
    容易に探し出せるサイト設計
     サイトの利用形態を明らかにしたい
     外部サイトへの遷移方法とユーザが要した手間について分析
      外部サイトへの遷移の内訳集計:割合確認
      セッションが外部サイトへ遷移する方法
      要した遷移回数


    naltoma: 検索エンジンからのダイレクト訪問は無視?
    naltoma: 誤った遷移はどう扱う?
    naltoma: 遷移回数=手間とは限らないのでは?
    naltoma: 「専門検索」みたいなものは混乱に繋がるのでは?
    naltoma: 「専門検索」はディレクトリ(カテゴリ)導入のこと?


    Q: リンクが圧倒的に多いということだったが、
     ランキングでは画像もでる?
    A: 直リンクはでるが、画像は詳細ページのみでランキング上では出ない。
    Q: 検索結果で画像が出るケースと、画像無しリンクとでどちらがベターかは比較していない?
    A: 今回はしていない。

    Q: カテゴリを5ずつ用意したとの事だが、誰が考えた?
    A: 共同研究の別の方が。ダウンロード数も考慮して決めた。

    Q: 今回分かった事はコミック検索サイトに特化したことなのか、より幅広い事なのか?
    A: 今回は特化した結果のため、別のケースでは異なる傾向が出てくるとは思う。
     ただし、例えば音楽サイトとかでも同様に使える結果を含むと考えている。


    2P-6スペクトラルクラスタリングを用いたアンケートデータ解析に関する一検討, ○稲垣和人,吉川大弘,古橋 武(名大)

    個性の多様化:マジョリティよりもマイノリティ解析が求められている
    分類:クラスター分析
    相互関係の把握:多変量解析手法
k-means法:少数データは統合されてしまう
    主成分分析:最大多数変量で見てしまう
    局所的類似性をスペクトラルクラスタリングで捉える
     グラフカット
      クラスタ内の類似度を高く
      クラスタ間の類似度を低く


    naltoma: 比較するなら決めうちするk-meansよりは階層型クラスタリングでは?
    naltoma: 異常検知という意味ではARとの比較?


    Q: クラスタのバラツキ度はどのように算出した?
    A: 定量的な指標で比較した訳ではなく、解答者人数による定性的な評価。

    Q: スペクトラルクラスタリングを用いたという点と、クラスタを2分割している点とで、
     後者の方が本質的(寄与していた)だったということは無いか?
    A: 他の手法で2分割すると、k-meansでの場合では均等分割される結果になる。
     デンドログラムでも同様にデータ全体を均等分割するようになってしまう。
     ある一部分で密集したようなところを取るという点で本手法の利点。

    Q: スペクトラルクラスタリングと最少カットとで比較すると、
     最少カットは気持ちとしては小さすぎないのを作らないために入っている。
     そちらを除外するとどうでは?
    A: 単純にカットする枝のコストを小さくするというだけだと、
     一人だったり二人だったりした解答が抽出されていく可能性がある。
     小さすぎるクラスタはできないような機構を取り入れた評価指標になっている。
    Q: 一人は確かに問題だが、二人はマイノリティではない?


    2P-7ユーザの視点に基づくレビュー文書の比較手法の一考察, ○坂梨 優,小林一郎(お茶の水女子大)

    膨大な意見
     潜在的トピック抽出により意見文を分類
     その後、ユーザが知りたい観点で商品を比較できるようにする
      多数派 vs 少数派(多数派示す方がベター?)


    naltoma: どういうコンテキストで述べている意見かを考慮する必要はないか?
    naltoma: 文単位で類似度判定することで語抽出/抽出漏れは問題にならない?
    naltoma:


    Q: 問題設定について。ある商品に対して複数レビューがあり、
     適切な文を何文か出すというタスク?
    A: 分かりやすく比較する文の提示が目的。
     気になる文に対していろんな要素をいれる事で、
     それらの要素を含む同じような文章を持ってくる。
     入力は1文で、それに似たような文を持ってくるというタスク。

    Q:
    A: 潜在的な、文の表層情報では現れないものと組み合わせようと思って行っている。
     現時点では別々の手法をやっていて、まだ組み合わせてはいない。

    Q: LDA-DFでトピック得た後の文の距離はどう測る?
    A: トピックに分類された後で、トピック毎の確率が出る。
     そこから計測。


    2P-8アイテム推薦のためのアソシエーションルールを用いた類似ユーザの抽出に関する基礎的検討, ○伊藤寛明,吉川大弘,古橋 武(名大)

    推薦アイテムの意外性や説明性
    CFではユーザxアイテムの評価値行列が大きくなる
     アソシエーション分析により価値のある組み合わせ(ルール)を見つけ出す
     アソシエーション分析によるユーザベース/コンテンツベースの比較検討


    naltoma: 他の手法との比較ではどうなる?


    Q: ユーザの評価の傾向は影響しないのか。厳しく評価するユーザとか。
     今後こういうしていきたいというのがあれば。
    A: どちらも共通したユーザが行っている訳ではないので、その点の比較検討はできていない。
     コンテンツによって評価が異なるというのも、高く評価しやすいユーザとかもいると思うが、
     今後検討していきたい。

    Q: アイテムベースの時に、アソシエーションルール作成時の条件部分はどうやって決める?
    A: アイテム1にlikeしているので、それぞれのconfidenceを計算。
    Q: 例えば100件評価しているユーザがいたらどうする?
    A: 最後、時系列的に評価している最後の評価に基づいて算出。
    Q: 単一条件でやるというポリシー?
    A: その通り。


    2P-9信頼度を考慮した協調フィルタリングに基づく書籍の推薦方式の提案, ○蒋 淵舒(電機大)

    あるユーザXがユーザ1を信頼して、ユーザ2を信頼していない場合、その情報を加味した推薦が可能。
    ただし、直接的に信頼度は評価されていない。
     推薦正確率から信頼度を計算する方法 Trust(a,b) = Correct(a,b)/Total(a,b)
     共通度の導入でより適切な信頼度となるように重み調整


    naltoma: 評価の付け方自体が異なるユーザ間で、適切な信頼度が算出できる?
    naltoma: 祖業列のためkを大きくしても近傍はほぼゼロというのはどういう意味?
    naltoma:


    Q: 新しい指標を入れてMAEは余り変化していないという結果だが、
     本のランキングの傾向は変わった?
     うまく推薦できなかった本が推薦できるようになったとか。
    A: 個別に本のランキングはしていない。
     計算したのは近傍ユーザ。

    Q: k-NNを使っているのはCFの中で使っている?
     自分から見て類似するユーザを捜して、その人の評価値を使って
     未評価のアイテムを評価するために k-NN を使っている?
    Q: ゼロのデータと未評価のデータの扱いに困ったとの事だが、
     平均使うとか0としてそのまま使うとか、ケースバイケースだが、
     捨てるのは勿体無いと思う。


    2P-10利用目的に応じたメタデータスキーマの作成支援 -メタデータ語彙の推薦と語彙セット評価手法の提案-, ○小早川遥,本間 維,永森光晴,杉本重雄(筑波大)

    既存タームを組み合わせてメタデータスキーマを作成することで、新しく定義するタームの数を減らす
     再利用する事で再定義を減らす
    どのタームが利用目的に合い、相互運用性が高いのか?


    naltoma: タームも言語の一種という点では時代と共に意味が変わってこない?
    naltoma: 利用目的への合致度合いや、相互運用性の高さはどう評価する?
    naltoma: どのようなコンテキストでどのような使われ方をしているのか、という視点での類似度が分かれば良い?
    naltoma: 検索結果が一般的に良く使われる順に出力されるということは、
     異なる目的でも使われてしまう事を強めてしまわないか?


    Q: データ例にあった「比較的一意に決まりやすいもの」だと良いが、
     そうじゃないものでは見つからない、判断難しいとかがない?
    A: そういうケースもあると思う。
     楽曲としての代表的なものを入力するという形であればうまくタームを見つけられる。
    Q: 日付だけ入れても駄目だが、いれる方が考える必要がある?
    A: はい。

    Q: メタデータスキーマにあまり詳しくない人を支援するとすると、
     どこまでメタデータにしたら良いのかとか、
     どういうタームを付けるべきか分からない人が対象となると思うが、
     どういうタームを付けるかと、どこまでメタデータを付けるべきかは別問題ではないか?
    A: タームセット評価として、一般的に使用されるデータスキーマがある。
     その中で良く使用される組み合わせを考慮して評価する事は考えている。

    情報処理学会 第75回全国大会0日目

    火曜日, 3月 5th, 2013

    m_20130305091007513537dfa147f m_201303051958115135cfc302274 m_201303051959275135d00f7c295 m_201303052000335135d051963a4 m_201303052007195135d1e7a3092 m_201303052058475135ddf704787

    何度か書いてますが、今日から情報処理学会全国大会のため仙台入りしています。

    NAL研からは

    の4名が参加で、B4の慶留間くん&玉城くんは初学会です。というわけでもないですが、発表だけじゃなく情報収集や討論参加も含めて明日から頑張れという意味をこめて牛たん炭焼 利久でお食事。私自身は12月にも食べたのですが、相変わらずのウマさでした。ごちそうさまでした。

    日本認知科学会第29回大会を振り返る

    土曜日, 12月 22nd, 2012

    日本認知科学会第29回大会が終了してほぼ1週間が過ぎました。記録を兼ねて、見つかる範囲で本大会関連記事を整理しておきます(下記)。

    當間レポートでは大まかなストーリーと質疑応答を中心としたメモ。この記事では「聴講した発表」を話のタネとして個人的に感じた印象や考えについてつらつらと書いてみます。なるべく複数の発表をまとめてそれらに共通する話題としてピックアップしたつもりだけど、結果的にはそうなってないかも。

    関連振り返り: [ JCLA13(日本認知言語学会) | NLP2012(言語処理学会) | IPSJ74(情報処理学会) ]


    <目次>

    統合的認知と現実場面における複雑さ
    会長講演proc.)の統合的認知として話された「システムを構成する要素間における階層性や接続関係を踏まえたアプローチ」という大きな枠組み自体はいろんなところで出てきている話。ここでは具体的な構造(トレードオフ関係/インプリシット結合/個人間変動)を仮定し、その仮定をうまく観察するためにどのような枠組みで実験設計したかという事例紹介をベースに、全体的な枠組みに言及されていました。JCLA13での「多層的かつ重層的に捉える」という話も同じような見方かも。

    認知的な活動に限らずモニタリングしたデータには何らかの要因で「例外的な値/イレギュラー」と看做したくなるケースが出てくるのが自然。例えばJCLA13振り返りで「仮説に合致しない事例は反例か例外扱いで済ます? もしくは仮説自体に制約を設ける?」ということについて考えたりしましたが、こういう例外なデータ件数が少ないほど「取りあえず無視する」と考えたくなるんですが、ここでは「認知仮定を説明するモデルの構造は同一だが、構造の差ではなくそのモデル上の信号伝達バランスの崩れとして例外的に見える個人差を説明する」という視点が目から鱗でした。面白そうなので視覚科学も買っておこう。

    また、共感覚も同じ個人差の一形態というようなスタイル(に聞こえた)として話されてたのも面白かったです。「共感覚」という言葉自体を始めて知ったんですが、例えば「数字の1」に対して「赤」とか明確にそれ以外の情報を知覚してしまう感覚があるという話自体知らなかったのですが、生態学的に個人差で収まるなら知覚過程も個人差で説明つくというのはそうだろうと思います。ただ、そこをうまく説明するための実験設計(被験者の属性抽出を含む)は大変そう。このあたりを「実験計画工学」として支援する的な話があっても良いかもしれない。(呼称はおいといてすでにあったり?)

    知覚アプローチproc.)についてのシンポジウムでは、渡邊先生の「基礎研究は現実場面の一側面を切り取ったものであって(あるべきで)、何らかの形で現実場面と繋がっている必要がある。応用できないというのではなく、どういう応用を見据えているのかについても話をできるようにしよう」というスタンスから始まり、事例ベースでどういうアプローチで切り込んだかという話。見せかけの複雑さに騙されないこと/エッセンスを残したまま単純化すること、絶対値ではなく差分に注目することといったことは統合的認知も含めてあらゆる問題に共通していますね。ワークショップ(進化言語学)proc.)でもアプローチの話が多数出てましたが、構成論的手法もうまく「エッセンスを残して単純化したモデル」でシミュレーションできかどうかが胆なんでしょう。

    別の観点というか全く異なる話ですが、NLP2012振り返りでの「コーパスがないとできないことと、そうではないこと」というモノの見方としては「再利用可能な形で観測結果がないとできないことと、そうではないこと」が気になります。

    注意の過程と認知の過程
    認知科学において注意と認知がどういう位置付けなのかはまだ分からないのでこれから調べる所ですが、今回の参加目的の一つでした。大分昔に「注意」自体をどうやって実現するかということについて妄想を膨らませた事があって、研究テーマとしても提案してみたことあるんですが流石に先行研究踏まえなさすぎてボツ(正しい結果)。

    フェロー授与式の「残されているテーマで取り組みたい課題」として安西先生が話された「情報が溢れている中で、何か問題解決しようとしたら、何故それに必要な情報を抽出できるのか? という根源的な課題はまだ解決していない」らしい。会長講演の冒頭でも出てきた【情報の取捨選択 [James, 1890](Principles of Psychology っぽい)、特徴統合理論 [Treisman & Gelade, 1980](Feature integration theory っぽい)、注意モデル化 [認知科学, 横澤] (このリストでの注意を含むやつ?)】か、論文で挙げてる【[横澤, 1994][横澤・熊田, 1996]】あたりを眺めると概観できそう。ただし、統合的認知でも触れたように、横澤先生(統合的認知)的には「単に脳計測した結果を観察分析するだけ」では要素還元的な分析に陥り、過程の理解に辿り着く前に満足してしまうと意味が無いというお話。

    歴史的な背景含めて今年出版された「MIT認知科学大事典」を購入すると良さそうなんですが、1600ページオーバーで紙媒体出版されるとちょっと。「辞典」という側面からも電子媒体出版して欲しいし、実際使うなら「キーワード検索」しまくるだろうし。かといって自炊するのもちょっと。どうにかならないのかなぁ。。

    錯覚の利用
    錯覚自体のメカニズムを解明するという話ではなく、錯覚することを利用して実験計画に組み込むという事例がいくつか。例えば、ゴム製の腕と自分の腕を並べておき、本当の腕を目視できないように隠してゴム腕だけを見せている状態でゴム腕側に刺激すると「実際に刺激されているように錯覚する」というラバーハンド錯覚を利用して、触覚だけじゃなく温度感覚についても同期刺激であれば錯覚するという話。錯覚を利用するというのは考えたこと無かっただけに、そういう試み自体が面白い。

    こっくりさんや目標伝達にみる無意識的な認知
    こっくりさんを対象としてたのはO1-2の発表proc.)ですが、大会全体として「無意識的に行われる認知が重要で、その過程をどう明らかにするか」という視点で話されている発表がいくつかありました。どちらも基本的にはターゲットとなる認知の具体例を想定し、そこで見られるであろう仮説を立て、その仮説をうまく説明するための実験設計し、実験観察するという「科学」らしいスタンス。

    こっくりさんの例では「脳活動に同期現象・機能的結合が見られることが既に報告されていて、それを踏まえて同期背景として何が行われているのか」を問う話。実験設計としては知り合い同士でペアを作り、「今日の天気は?」といった確実に答えられる設問と、事前アンケートで「自分が知っているか否か」と「相手が知っていると思うか」について調査した上で実験中の設問を設定し、試行中の脳活動から比較したとのこと。

    O2-1の目標伝染proc.)では、多くの認知的処理が意識的コントロール範囲内にはないのだから「思考も無意識の影響から自由とは思えない」というスタンスで、一個人が目標を設定する際にも無意識的なプロセスが入り込むかを一例として検証した話。具体的には2種類のシンプルな物語を用意し、片方では衛生的な観点から刺身定食から焼き魚定食に変更するというストーリー、もう片方はそういう意図無しに焼き魚定食から刺身定食に変更するというストーリー。どちらか一方を読ませた後にダミー課題(恐らく数分)を行わせ、お礼として用意したクッキー&消毒液に対する行動を観察比較するというやり方。

    人形遣いに見る恊働作業の達成
    サッカーとかバスケみたいなグループ競技でもたまに「言葉使わないし目視もしない連携」が発生しますが、そういうたまたまのものではなくてデフォルトで言葉や目視を使わない、つまりコミュニケーションレスに見える状況下で高度な恊働作業を実減じている例としてO3-1proc.)とO3-2proc.)では「文楽人形の人形遣い」を取り上げ、「阿吽の呼吸」のように評される恊働作業をどのように達成しているのかを探るという話。人形遣いは操作するために3人の連携が必要で、メインガイドに相当する主遣いを中心として、それを支える左遣いと足遣いがいる。他に直接操作には関わらない要素としては、脚本や床(三味線や義太夫節をこう呼ぶらしい)があるので、ストーリー的に先読みできるなら合図等無しに恊働作業できるはずだが、それらがない場合でも共同作業しているところがミソ。これを人形の動きや操作手の呼吸モニタリングすることでどのように同期が発生しているかをウェーブレット変換で位相差解析してみたらしい。モニタリングしている情報以外は見れないのが問題だけど、現時点でもいくつかの同期傾向を抽出できているとのこと。想像通りの部分としては、熟練者になるほど呼吸が安定(より周期的)し、動作と呼吸相が非同期的になるとのこと。

    操作中なので身振り手振りも使えないし、言葉や目視も行わずに「恊働作業」を実現しているというのは確かに凄い。ただ、直感的には操作している「人形」を通してのインタラクションがありそうなんだけど、このあたりについては計測困難or実験設計困難という判断なのか見落としているのかが良く分からず。

    コミュニケーションスキルと足踏みの自発的同期
    O1-3の発表proc.)で、対面状況下で(足踏みすることだけを伝えて)足踏みさせたとき、どのぐらい足踏みが合うかと自閉性傾向(コミュニケーションスキル)とに何らかの相関が見られるのではという話。音による同期を除外するためにヘッドフォン(ノイズ音)付けて、対面状況と非対面状況(片方に後ろ向かせる)とで比較すると差が見られたとのこと。特に、自閉性傾向の人でも「同期するよう指示するとできる」が自発的にはでてこない、らしい。

    暗黙知・実践知の記述
    パターンランゲージ一種だと想像。例えばP1-17proc.)では復興支援活動に携わっている人の話す体験談が「自分がどう感じたか」になりがち(それが体験談だとは思うが)で、後から新しく携わる人が具体的に何をどうしたら良いのかという点で直接的には役立てにくいという話で、そこを「物理的なモノ」中心に記述し直すことを試みているらしい。目的が異なるものを再利用性高めて使おうという点では面白い。

    NLP2012振り返り

    より現実的なエキスパートシステムとか、実際に現場で利用できるレベルでの知識の蓄積の仕方、と考えても良いかもしれない。専門家に相談したら良いという話でもあるけど、それも難しい状況があるわけで。

    ということを考えたりしたけど、パターンランゲージを一緒に設計するというのは一つの解だろうと思います。

    緩い対称性
    P1-22proc.)ではマルチバンディット問題で緩い対称性(Loosely Symmetric Model, LS)を導入することで学習が効率良く進んだという報告。システム側には乱数的な挙動を除外しているようなので決定論的に動作してしまうのだけど、これで局所解に陥らずに効率良く学習できるというのは謎。著者的には「他と比べてどうか」をリファレンス参照して求めているから上手くいっているように見える、という解釈らしい。強化学習やってる慶留間くんの参考になるかしら。

    他にも緩い対称性使ってる事例はあって、P4-9proc.)では「確率的にはあり得ないモデル(認知バイアス)を人間は作ってしまう」ことを経験ベイズとLS組み込んでうまく説明してみようということをやってる話もありました。

    今回に限らず「緩い対称性」の事例はたまに見かけるのですが、オリジナルではどういうストーリーでこれを提案しているのだろう。直感的にはロジスティック関数の方がうまく説明できそうな気がするけど。参考文献からオリジナルを探す限りでは因果性に基づく信念形成モデルとN本腕バンディット問題への適用らしいので後で読もう。

    協調学習における学習のプロセスと授業形態?
    O2-2proc.)によると、複数人で協調しながら学習を進めていく(グループワーク?)場における協調過程を説明するモデルとして、収斂説と建設的相互作用説があるらしい。収斂説では「協調学習を通じて複数学習者の考えが正しい解へと収斂するプロセス」を説明しているが、「正しい解を選んだ個々の学習者が用いているメンタルモデルには多様性が見られる」ことが観察できたので、それを建設的相互作用として説明を試みたという話らしい。

    必ずしも「協調」という枠組みではないけれども、代表的な座学聴講スタイルの授業形態において反転授業という「授業の後半で課題のイントロ部分を実際にやり、残りを宿題とし、次回授業の冒頭で開設や質問受付する」に加えて、友人らで互いに教えあえる環境を構築できると「興味はあるけど具体的な行動には結びつかずにドロップアウトしがち」な人を具体的な行動に結びつけやすくなるという話がP2-10proc.)でありました。こういう「積極的に取り組みやすい環境作り」はHow to Make (Almost) Anything (ほぼ何でもつくる方法) 2010年度 体験記や、FabLabCoderDojo Okinawaでやってうことと共通している点なのかも(多分)。一方で、P2-10でも述べられていたんですが、助走期間というかある程度自分で走れるようになれるまでは手取り足取りやってからじゃないと、そういう環境を用意しただけではうまく機能しないというような話も。

    P3-2proc.)では、創作活動において「自省」だけよりは「他者作品の模倣課題」を課すことが表現内容/方法/その関係調節といったことへの意識の芽生えを促すことができるらしい。これも助走期間をうまくサポートするコツなんだろうな。変化球的な事例としてはP4-12proc.)の即興ダンスにより「自分の身体は好きだ」「日々の生活で発見が多い」「他者を位置づける」「客観視」する傾向が強まったという話も。

    一連の繋がりを持つと認知する過程?
    ツイート集合において特定ツイートを指定した時に関連しているツイートのみを抽出(談話抽出)しようとしている堀川くんのテーマに関連して、「繋がりを持つと感じる(知覚する)」といった、語や文・文脈の認知過程についての情報収集が今回のメインタスクの一つ。

    P4-4proc.)では、現在進行形で体験している出来事はそのままでは細切れなイベント集合のままで、「極め」に相当するアクションに遭遇することでそのアクションに関連したイベント(=そのアクションを理解するために必要な文脈となる出来事)群を紐付けることでエピソード体験抽出しているという話。協調している点は、「後日談として語るような場面でイベントを再構成/紐付けしているのではなく、体験しつつある認知経験の最中に形作られる」ということらしい。「アクションを理解するために必要となる文脈」を紐付けるために、その文脈をどう抽出or選択しているのかは良く分からないけど、体験最中に「それまでの経験を蓄積して構築したメンタルモデル」との紐付け自体が文脈抽出時の情報になっているのかな?

    物語生成関連の発表も数多かったのですが、こっちは認知過程的話が含まれてなかったのでちょっと残念。自動生成や生成支援みたいな話自体も面白いけど、そっちは情報処理学会言語処理学会でも聞ける話なので。

    言語処理方面では、NLP2012の振り返りでの発話文の前提推定は前述の「アクションを理解するために必要となる文脈を紐付ける」のと酷似したタスクだと思います。少なくとも出力は同じで、認知過程的に同質なのかは良く分からないけど。説明生成に基づく談話構造解析含意関係認識も関連タスクじゃないか(うまくいくモデルとしては類似点がありそう)と。IPSJ74の「ストーリー性を考慮したあらすじからの類似度計算(abst.)」や「知的ヘルプシステムのための意味を考慮したテキストマッチング(abst.)」、「共起ネットワークを用いたクラスタ性によるテキスト分類」も手続きとしては参考になる視点がありそう。

    別観点では、IPSJ74での「マイクロブログ上の中心的話題(abst.)」や「複雑ネットワークからのキーワード抽出(abst.)」は、「極めアクション」の抽出処理として使えそう。

    メンタルモデル?
    メンタルモデルを直接対象としているというよりは、メンタルモデルを使った認知過程のモデリングについて理解を深めるための教材や授業についての発表がいくつかありました。例えばP1-20proc.)ではメンタルモデルを簡単に設計&シミュレーションできるシミュレータを提案し、授業で触らせてみたという発表らしい。

    すべてはメンタルモデルという考え方から」を参考にする限りではメンタルモデル自体にもいろんな解釈があるようなのだけど、このあたりは何か整理されてる文献等があると良いのだけどちょっと見つからず。

    日本認知科学会第29回大会 3日目(最終日)

    土曜日, 12月 15th, 2012

    日本認知科学会第29回大会3日目(最終日)が終了しました。まだまだ咀嚼できてないですが、自分の考えを整理するのは後にしてここでは参加メモの備忘録です。

    初日に「会期中に地震あるでしょう」という話だったのですが、最後の口頭発表セッション中に2回来ました。1回目は結構震度あった気もしたけどあれで震度3だったのか。2回目は震度1だったらしい。こっちももうちょい強かった気がしたけど。

    最終日は気仙沼食堂に行く予定だったんですが、満席で入れず。仕方ないのですぐ近くにあったかきやNO海鮮丼ぶりや ととびすとに突撃。牡蠣蒸し焼きは当然として、海鮮丼も旨し。やっぱり海産物を一度は食べておくべきだな。適当に入ったお店でこんなに美味しいとか羨ましすぎる。

    最終日のプログラムは以下の通り。

     シンポジウム2: 知覚アプローチの現実場面への適用
     ポスターセッション4
     口頭セッション5: 言語・認知
     ワークショップ3: t検定・分散分析から混合モデルへ:文理解研究の導入事例から学ぶ
     ワークショップ4: 進化言語学の方法論的基盤

    シンポジウム(知覚アプローチの現実場面への適用)は良い意味で期待を裏切られて面白かった。一つ心残りがあるんだけど、「網膜に映る二次元画像から外界三次元構造復元し、物体や光景を認識」という従来の復元スキームで説明できないことが「二次元画像特徴の集合/統計量からほとんど「直接に」認識」という新しい把握モデルとして説明できることがあるという話は、復元スキーム全体を否定しているのだろうか?

    最後の口頭セッションは自分的に一番気になってたセッションなんですが、実態が「言語の認知」というにはちょっと違いすぎるように感じたセッション。2,3件目は言語全く関係ないし。良い悪いじゃなくてセッション名と違いすぎるのはちょっと。

    ワークショップも少し残念。ワークショップ3(混合モデル)はどちらかというとレクチャー。ブログ: Mixed Effects Modelsを通して整理発信していくらしい。ワークショップ4(進化言語学)は、参加者に何を伝えたいのかが謎なパネル討論。

    以下、當間解釈の備忘録メモです。


    <目次>
    [ シンポジウム2 ] : S2 知覚アプローチの現実場面への適用
    [ ポスターセッション4 ]

    [ 口頭セッション5: 言語・認知 ]

    [ ワークショップ3 ] : t 検定・分散分析から混合モデルへ:文理解研究の導入事例から学ぶ
    [ ワークショップ4 ] : 進化言語学の方法論的基盤


    シンポジウム2: S2 知覚アプローチの現実場面への適用

    企画: 永井聖剛(産業技術総合研究所)
    話題提供者: 渡邊克巳(東京大学),
     本吉勇(NTT コミュニケーション科学基礎研究所),
     熊田孝恒(理化学研究所)
    指定討論者: 齋木潤(京都大学)
    
    [ 現実場面の「複雑さ」をどう扱うか(渡邊克巳(東京大学))]
     複雑(と思われている)現象?
      刺激の複雑さ:刺激をきちんとつくる
       見た目の複雑さ/数式モデル上の複雑さを混在して考えない
      操作的定義:受容野とか閾値は操作的定義。脳には存在しない。
      差分を取る:「絶対値」は扱いにくい。変化に注目。
      限界を調べる
      エッセンスを残したまま単純化する:被験者が捉えるストラテジーを最小化(最大化)する
     刺激や現象の見かけの複雑さに騙されないこと
     実験に落とし込む前に、どのように現象のエッセンスを残したまま単純化すべきか
     高次・複雑な刺激をあえて「低次」なものとして扱ってみる
      低次のプロセス組み合わせで説明?高次受容野として説明?
     操作的定義を設定
      有効視野での例: 操作的定義を設定し、それをベースに比較検証
      主観的指標と客観的指標のズレをどう説明するかの面白み
     刺激をきちんと作る
      人,喋り,対話: e.g., パージカルモーション+α?
      刺激つくりだけで手間が大きいが、最初にきちんと作っておく
      現実社会からの収集でも良いが、どうエッセンスを抽出するかが重要
     差分に注目する
      歴史的: 単純接触効果(直前の刺激と比べてどうか。刺激そのものの良さは置いておく)
       頭の中の過程を抽出することができる
       e.g., CMの良さを評価するのではなく、直前と比べてどうかをシーケンスで見る
     系列効果
     ミニマルな状況を作る
      高次・社会的インタラクションにも低次な側面は含まれる
       日常観察だけでは分からない部分をどう引き出すか
       e.g., こっくりさん/指追従: 同期にはフォロワーがどう追従するかが大きな要素
    
    [ 知覚情報処理に基づく美学(本吉勇(NTT コミュニケーション科学基礎研究所))]
     復元から把握へ
      過去数十年:網膜に映る二次元画像から外界三次元構造復元し、物体や光景を認識。
       疑念
        1990年代末, 動物のいる/いないシーンを100msec以下で、
        注意を向けていなくてもできる。(赤い縦線と緑の横線を見分ける方が時間がかかる)
        2000年代, 画像のスペクトル形状から大まかなシーンのカテゴリ認識可能。
      新パラダイム:二次元画像特徴の集合/統計量からほとんど「直接に」認識。
       事細かに復元(高コスト)する必要はなく、
       例えばヒストグラムの一部に着目するだけで「把握」している?
       人間の知覚はルールさえ分かれば簡単に欺くことが可能。
        e.g., 形/質感/物体カテゴリの内部表現: 錯視を用いた実験モデル
        ->復元が必要だと思われていた知覚は、実際やってることは非常に低次コード?
         入力画像->画像特徴->統計量->オンデマンドな意思決定
         ≒コンピュータビジョンと同じ方向
     低次の画像特徴の集合に基づく高次の物体・質感表現
     形式の微を証拠だてて論じることはできないか?(審美眼の自然科学的理解)
      個人の好き嫌いを越えたもの
      一握りの集団の好き嫌いも越えた、普遍的なもの(作品そのものを分析する情報美学)
      絵画の画像統計量は自然照明下における物体の画像統計量と相関(生態光学的要因)
    
    
    Q: 2次元から奥行きがでてきた西洋絵画ものとの関係は?
    A: 何かしら科学的思考法があり、遠近法は幾何学のオンパレード。
     陰影リッチについていうと、古代ローマまで遡っても違いがある。
     認知モデルの背後にも自然環境の影響があるかもしれない。
     例えば直線的な建造物が多かったから遠近法が生まれたとか?
    
    
    [ 日常生活場面における情報選択や行動選択:神経心理学からのアプローチ(熊田孝恒(理化学研究所))]
     神経心理学:脳の器質的ダメージによって生じる認知機能の変化を実験心理学的に理解する。
     高齢者/障がい者/初心者などの特殊なポピュレーションの認知・行動特性を理解する必要性
     前頭葉機能に焦点をあてた事例
     視覚探索の例: 注意のスポットライトを移動して、ターゲットを見つけ出す過程
      ボトムアップ情報:視覚的顕著性
      トップダウン情報:ターゲットに関する知識
      半側空間無視
       刺激の差で起こることも起きないこともある
       特徴探索(線分)だと生じない
       結合探索だと生じる->ボトムアップとトップダウンどちらに問題?
       -> 知識を要する課題、顕在的に解ける課題で比較
     加齢による認知機能の個人差と日常生活における問題
      注意/ワーキングメモリ/プランニングのいずれか一つだけが劣っている人を集めて比較
       高得点/ワーキングメモリ低下では顕著パターン無し
       注意機能低下: 探索範囲の不十分さ(どこを探すべきか分からない)*非注意
       プランニング機能低下: ゴール設定の不十分さ(何を探すべきか分からない)
       過去の経験やメンタルモデルに従った行動が共通してみられる(機能低下を補う行動?)
       -> 駅構内の案内表示を増設・改良しても有効ではない。
      高齢者と一括りに扱えるようなものではない
     注意が向かない人たち、向けようとしていない人たちの認知モデル
      どうサポートするか
      心理認知学的に把握するところから
    
    
    Q: 要素数が多少が左右に差が出るのは何故か?
    A: 密度が影響している可能性。まだ仮説で検証できていない。
    A: 課題の難易度だけで説明できないか?
    
    
    [ 指定討論: 齋木潤(京都大学)]
     タイトルについて、
      知覚研究者が認知科学で役立つのは実験方法論のみ?
      知覚が基礎研究で現実場面は別世界で切れ目がある?
     知覚研究のリアリティと認知研究のリアリティの接点が少ない?
     問題を絞って掘り下げていく方法論 vs 問題を広げていくアプローチ?
     知覚/認知や基礎/応用といった区分はナンセンス。
     全ての研究はそれなりのリアリティ、何らかの現実場面との接点がある。
     現実場面の一側面を切り出しているだけに過ぎない。
    
     Q: fundamental な問題はまだまだ解けていない。
      今やってる視野を広げる研究はどう寄与するのか。
     A: 知覚系研究で数十年かけて解決されてないのは、見方が間違ってたという見方もできる。
      駅表示板大きくしても駄目という話でも、5mぐらいの表示だと気づくかもしれない。
      実環境に依存しているにも関わらず、切り出してしまっている。
      世の中の統計的なものが体にしみ込んでしまっていて、そこから外に踏み出せない。
      応用に対して方法論を提供するだけではないと思う。
      横に広がることは物事を深めることと同値。
      表示板を見やすくするにはどうしたら良いかという発想ではなく、
      問題発掘していく見方をする人が増えると嬉しい。
     A: 若い人も国際会議にシフトして国内会議に出てこない。
      fundamental な問題というからには問題は見つかっている。
      知りもしない問題を見つけてくる所はクリエイティブだと思うが、
      視野を広げることはそこに役立つと思っている。
      自分がやってるところでしか成り立たないと思っていたことについて、
      他でも成立するアナロジーだったりすることがあると、そこに普遍性が
      見つかる切っ掛けにもなると思う。
     A: 基礎から応用へというストーリーは自然科学的な発想。
      基礎が開けたら繋がるというものではないように思う。
      日常場面を切り出す程度の問題。
      抽象化の仕方が間違っていないかということに気になっている。
      緩和していった時の傾向確認など。
      実験室の外でやると想定外の面白さがある。
      実験室ではモデルを想定して行動するが、予想しない結果が出て来るなら、
      そのモデルの作り方が間違っている可能性がある。そこにヒントが現場にあるのでは。
    
    
    
    naltoma: ここで題材にしている知覚すべき対象の「複雑さ」は、
     乳幼児のようなレベル? ある程度発育した子供以上?
     という発達段階に応じて知覚の仕方によっても変わったりしない?
    naltoma: 新パラダイムの把握は、復元スキーム全体を否定する話?
    
    
    
    Q: リアリティとの差分について。
     いくつかの目標を遂行してからゴールに行くことについて思い出すと、
     何かしら若い頃からいくつかゴールを忘れてしまうことがある。
     プランニングの問題は若い人でも高齢者でも強弱がある。
     ワーキングメモリの不足?
     一つのことをやっている内に二つ目三つ目、、、どれかを忘れてしまう。
     個人的な体験ではワーキングメモリ不足が影響していないか?
    A: 実験室レベルでの実験が良いのか
    
    Q: 地震でも生物でもいろんなところにべき乗則が成り立っている。
     人間の知覚は昔のように物体を細かく分けて認識統合してる訳ではなく、
     統計的に判断しているのではないかという話だったが、これはべき乗則?
     そういうものを頭が認識しているという考え方で合っているか?
    A: 統計的にはそういうことが言えると思う。
     ただ、画像の中にある統計量という点では違う話だと思う。
    
    
    

    ポスターセッション4


    P4-2: 階段状の語彙発達曲線の成因:語とその参照物の共起パターンの生起確率は閾値を一斉に超える, 荒木修(京都工芸繊維大学大学院工芸科学研究科情報工学専攻)ら

    従来は、子供の語彙発達時の傾向として推移時の段差は小さく、
    大きい目で見れば滑らかな曲線的に発達が進むと想定されていたのに対し、
    そのように進む子供もいるが、大きくはっきりした階段状の傾向を示す子供
    もいるという観察結果が報告されているらしい。
    それを前提に、「こういう傾向を引き起こす原因」の一つを提示するために
    シミュレーションした結果、「指示対象となりうる物体との特異的な共起」
    に要因があるというのが前回までの話で、今回はさらに複数条件を追加した
    シミュレーションを通して「説明」してみるという話。
    
    勿論今回の結果(から考えられる説明)が正しいかは別ですが、
    シミュレーションを通してモデル構築するという点ではとてもスマートな
    アプローチという印象。
    


    P4-4: 極めのアクションが1 つのエピソードユニットとなる幾つかの出来事をつなぐ, 榎本美香(東京工科大学)ら

    時間推移に伴って体験している出来事(イベント)は、
    それを体験している最中には細かく区切っているだけで、
    後で「極め」に相当するアクションが起こることで不要なイベントを取り除き、
    その極めアクションに関連したイベント群を繋げることで「エピソード単位」になるという話。
    どういう風に繋げるのかなという点ではこういう考え方もあるか。
    具体的な記録からコーパス化&分析するアプローチも一つの参考になるかも。
    


    P4-5: マンガのシーンの想起における境界拡張, 船津徹(東北大学大学院情報科学研究科)

    以前見た写真風景を後で思い出そうとする時、
    実際に見た写真よりも広角なシーン(被写体が元画像よりも小さく)として
    想起される現象を「境界拡張」と呼ぶらしい。シーンの境界が拡張されるのね。
    これが4コマ漫画でも見られましたという話。
    狙いとしては、「単純なオブジェクトで描かれた線画では境界拡張が見られない」
    という報告があり、それに対して漫画では生じることからどのような認知過程が
    生じているかを迫っていくことに繋げていきたいみたい。
    


    P4-6: 各特徴の出現頻度がカテゴリ学習と典型性評定に与える影響, 京屋郁子(立命館大学文学部)

    狙いは面白そうなんですが、個人的には実験設定が目的にマッチしていない気が。
    独立した特徴をいくつか用意し、それらを組み合わせて絵を用意することで
    カテゴリ学習への影響を見ようとしていますが、個人的には「絵」になってる
    時点でそれらが複雑に組み合わさってしまう刺激に解釈されてしまうような気がする。
    


    P4-7: 因果構造の学習における課題の複雑性と判断方略の変化―観察と介入に関する実験的検討―, 斎藤元幸(関西学院大学大学院文学研究科)ら

    面白そうなんだけどタイミング合わず。
    


    P4-9: ベイズ的枠組みにおける対称性推論のモデル化と認知バイアスの体系化に向けて, 大用庫智(東京電機大学大学院)ら

    確率的にはあり得ないモデル(認知バイアス)を作ってしまうことを、
    緩い対称性(LSモデル)と経験ベイズモデルでうまく説明できないかという話。
    具体的な認知バイアスとしては、ギャンブルにおける「確率的に平等」な状態
    から「ギャンブラーの誤謬」に推移し、さらに「ホットハンド」へと辿るという
    時系列的なモデル修正を扱っていて、この認知モデル更新をうまく記述する
    モデル化をしてみることでより汎用的な認知モデルに繋がることを目指しているみたい。
    


    P4-12: 大学生を対象とした即興ダンス授業実践とその効果, 中野優子(東京大学大学院学際情報学府)ら

    授業として「即興ダンス」をすることを前提に、
    「即興ダンスをすることで認知モデルがどのように変化するか」に
    迫ってみたという話。即興ダンスは「構想をその場でどのように
    表現するかは個人に委ねられているので指導困難」で、「学習効果
    も良く分からない」らしい。大学での授業を通して数回に分けた調査
    からは、「普段時の姿勢や呼吸といった身体に意識を向けるようになる」
    みたいなものから「自分の身体は好きだ」「日々の生活で発見が多い」
    「他者を位置づける」「客観視」とかいろいろ出てきたらしい。
    


    P4-14: 言語統計解析に基づく文生成の計算モデル構築, 堀田崇史(東京工業大学大学院社会理工学研究科)ら

    ベイズと何が違うのかが分からない(という質問で集中してた)のですが、
    本質的な所はベイズでそれを組み合わせてて、それを誤解を招きそうな別称
    で呼んでいるのが問題なだけかも。コーパス次第でどういう文を生成させ
    たいかを切り替えられそうですが、このあたりもう少しうまくやれないものかな。
    

    口頭セッション5


    O5-1: 言語経験による音象徴処理の変化, 浅野倫子(慶應義塾大学/日本学術振興会特別研究員(PD)/玉川大学)ら

    音表象: 「ことばの音」自体が何らかの意味(概念)と結びつくケース
     ブーバ・キキ効果: 言語圏によらず95%が同じ傾向
     抽象度の高い/低いシンボル
      低いシンボルへの音表象は言語発達との関連?
     前言語期の乳児は音表象を[意味的に]処理する
      「言語音は意味と結びつく」ことへの気付き(意味≒物体or事象?)
      個々の音と意味のマッピング
     Q: 成人も同じように音表象を脳内処理しているのか?
     -> N400は生起しない(意味的には処理していない)
      P600(刺激全般に対する再解析処理)では生起(音表象の関係性自体の評価はしている)
    
    
    naltoma: 言語経験によって音表象の脳内処理が変容するとして、
     それを脳波測定で捉えた際に「脳波上は違う」ということと
     「音表象の脳内処理が異なる」ことは同質なのか?
    naltoma: 変容するとして、変容するのは何故か?
    naltoma: 意味的に処理するとは?
     音表象との適合度合い(親和度)は、意味的な処理?(統計的な処理ではない?)
    
    
    
    Q: 共感覚者ではどうなると考えられる?
    A: 計測していないが、個人的にはブーバ・キキ効果と共感覚とでシェアしている
     部分はあると思うが、違う側面があると思う。計測結果は似た結果が出そう。
    
    Q: P600が何故出てくるのか?
     課題はさせている?
    A: 課題はさせず、自動的に見聞きしているだけ。
    Q: 何か大きな課題させるとP600出て来るというのはあるが、
     今回のケースでは何故でてくるのか?
    A: 理由は私も知りたい。
     赤ちゃんと条件を揃えるため今回の実験設計になっている。
    Q: Semantic P600は意味的なものにも何らかの形で影響しているということも
     言われてきているが、まだ良く分からない。可能性としては Semantic P600かも?
    A: 突き詰めていきたい。
    
    


    O5-2: 思い出工学:タイムカプセルによる思い出の保管の検討, 新垣紀子(成城大学社会イノベーション学部)ら

    思い出工学
     思い出の危機(311,サーバトラブル)
     思い出の定義
      記録や記憶を手掛かりにして自分が作りだす「物語」 [野島,2003]
    
    タイムカプセルワークショップ
     イベント・モノ・語りの記録
    思い出保存実験の目的
     実物は必要か
     デジタルで良いのか
     思い出の語りは必要か
    タイムカプセル実験の意味
     残したい自分、卒業したい自分
     残したいものは変わる
     語りを残す
    
    
    naltoma: 思い出工学によるログ化とタイムカプセルとで何を工学or認知科学したい?
    naltoma: 目的はいろいろあって、例えば「過去の自分」を追体験すること?
     目的次第で何をどう残すかが変わってくるのでは?
    naltoma: タイムカプセルをタイムスケール短く&複数回やることで
     教育的効果(振り返り追体験)に繋がる?
    
    
    
    Q: 思い出工学とタイムカプセルについては、
     生活の場じゃない所に置く、手元から一度離すことに意味があるかなと思ったが。
    A: タイムカプセルはやっぱり特殊な例。
     一定の時間経った後でどう変わったかを見れる。
     野島先生的には思い出を共有することが目的。
    
    Q: 残した時の語りを覚えているけど、今見直すと時期がずれてるというのは面白い。
     いろんなものをデジタル化するというより、
     思い出深いアナログを残すことが想起しやすそう。
    A: 関わり方によって思い出がどう変わるかもポイントだと思う。
    
    Q: 思い出を残すということは個人や集団にとってどういう意味を持つのか?
     逆に残さないことはどういう意味を持つのか?
    A: 必ず残したいものだけではなく、思い出したくない過去もある。
     想像してなかったものも入っており、動揺したという例もあった。
    
    
    


    O5-3: 人工物利用のためのコミュニティ:アクションリサーチ報告, 原田悦子(筑波大学人間系心理学域/JST-RISTEX)ら

    みんなの使いやすさラボ(みんラボ) CUAR 中間/構想報告
    なぜ高齢者のための「使いやすさ」か?
     使わない人は相対的に「不便化」
     低コストで支援するためにはICT機器は必須
      何故使わない?
    
    高齢者へ社会貢献としての参加:モノの使いやすさを検証する活動
    ラボ: 使いやすさ/人工物研究支援ツール/コミュニティ研究
     高齢者はユニバーサルデザイン的にネックな所に気づきやすい
     逆に若年成人はネックをどうして自力で乗り越えられるか?
     みんラボ内でどのようなコミュニティが発生し、どのような支援が可能か?
    
    
    naltoma: ラボ紹介だけだったのが残念。
     コミュニティ研究側で入ってるようなのでそっちでどうなってるか聞いてみたかった。
    
    
    
    Q: 素直的学習、水平的学習に並んでる「関係的学習」とは?
    A: 自分が見ているものが過去の経験に照らし合わせてどう関係しているのか、らしい。
    
    Q: 高齢者は「開かれた社会に踏み込む」か「内向きか」に二極化していく。
     後者も含めた全体が促進できるようにならないか。
    A: 今までの施策では「そこまで必要か?」ということを言う人もいる。
     ただ、そういう人も外向けになれるかなと思えるので頑張っていきたい。
    
    
    


    O5-4: 定言三段論法推論の内容効果と等確率性仮定:確率サンプリング・モデルによる検討, 服部雅史(立命館大学文学部)

    内容効果
     主題材料効果: Wason選択課題、THOG問題
     信念バイアス
      交互作用: 結論と知識が一致すると反例を見逃す傾向
     メンタルモデル理論(MMT)の複数表象
      良い点: 表象・アルゴリズムの水準での説明
      悪い点
       モデル構成原理(仕様)が不明確、難易度予測が低精度かつ不正確
       内容効果や格効果を説明できない
    
    確率サンプリング・モデル(PSM) [服部, 2011; Hattori, 2012]
     PSMは内容効果による格効果も説明可能?
     -> 少なくとも一部は確率表象のことばで説明可能
    
    
    naltoma: 結果が近いモデルを構築することは工学的には理解できるが、
     ここでは認知的なモデルの理解が目的ではない?
     理解が目的だとするとどう寄与する?
    
    
    
    Q: 今回やったことは先行研究の再分析ではできなかった?
     全体としては合ってるけど細かく見ていったところに出てくるズレは問題にならない?
    A: AやIが絡んで来る部分はfitが良いが、悪いところもある。
     検討中で、現時点では多少改善が見られている。
     今回の分析が先行研究ではできない。
     先行研究ではニュートラルを使っており、デフォルトに落ち着く。
     今回は外れるようになって欲しかったので、そういう実験設定をしている。
    
    Q: PSMは個人の内的なプロセスのモデル?
     それとも実験時の集団特性のモデル?
    A: 基本的には個人プロセスを想定している。
     ただしランダムサンプリングは実際にはそうしていないと思う。
     そういう意味では同質のプロセスを辿っているとは限らない。
    
    
    


    WS3: t 検定・分散分析から混合モデルへ:文理解研究の導入事例から学ぶ

    企画: 神長伸幸(理化学研究所),井上雅勝(武庫川女子大学)
    話題提供者: 神長伸幸(理化学研究所),井上雅勝(武庫川女子大学),新井学(東京大学/日本学術振興会)

    
    
    ブログ: Mixed Effects Models Blog
    
    盛況でPC広げられないぐらい混んでたけど、
    上記ブログ等で関連資料は整理公開していくみたい。
    


    Q: モデル調整の際にAICのような基準を使わないのは?
    A: AICだと使い方によってはランダムサンプリングの影響を無視してしまうことがある。

    Q: 混合モデルだと3変数時にどれか一つをベースラインにすると
     残り2変数間の関係を見づらいため、場合によっては手間がかかる。
     これに対してMCMCなら最初から3変数でも見れるが、
     そうしない理由は?
    A: 文理解の分野では今の所混合モデルが主流であるという点と、
     t検定・分散分析をしている人からすると飛躍が大きすぎるため。


    WS4: 進化言語学の方法論的基盤

    企画: 岡ノ谷一夫(東京大学),橋本敬(北陸先端科学技術大学院大学)
    話題提供者: 岡ノ谷一夫(東京大学),橋本敬(北陸先端科学技術大学院大学),上田雅信(北海道大学),水本正晴(北陸先端科学技術大学院大学),大谷卓史(吉備国際大学)
    指定討論者: 藤田耕司(京都大学),池内正幸(津田塾大学)

    
    [ 言語の起源を科学的にやる取り組み (イントロ by 橋本先生)]
     様々な分野の有機的な融合
      理論言語学的アプローチ+比較認知科学的アプローチ
      生物学/遺伝学/人類学/複雑系科学/コンピュータ・モデリング/etc.
     WS目的:方法論的基盤の構築と確立のための議論
    
    [ 進化言語学における構成論と実験の論理(橋本敬(北陸先端科学技術大学院大学))]
     構成論的アプローチ
      無いところからあるところへの変化をシミュレート
       コンピュータシミュレーションor実験室内で構築
      リアルに再現しようとすることは考えていない
      操作や観察可能性を上げることで科学的アプローチを取りやすいように
      言語が成立する要因を探るという点ではアブダクション
    
    [ 進化言語学における6つの主要な誤謬(藤田耕司(京都大学))]
     文化進化の誤謬
     単一起源の誤謬
     過剰適応主義の誤謬
     コミュニケーションの誤謬
     連続性の誤謬
      「シンタクスは人間固有である」という言語学(生成文法)の主張
      ->中身次第。本質を改竄してはいけない。
     「人間中心主義の誤謬」の誤謬
     言語の成立は創発を含んだ進化過程であることを前提とする(そうじゃないと神存在説しかない?)
     進化言語学が進化学であるために
      神経系の進化的連続性を前提とする
      仮説形成の過程を許容する
       概念的定義を行動的定義に着地させること
       言語現象と対応させる行動を特定するため、神経処理レベルの相同性を利用すること
     生物心理学ができること
      併合がラベル付けを必要とするなら、メタ認知は併合を促進する
      パターン学習
    
    [ 生物言語学におけるガリレオ流思考法について(上田雅信(北海道大学))]
     ガリレオスタイル:近代科学の基礎
      言語と心への切り込み
      理想化
      理解可能な説明手段:抽象的な数学モデル
      why -> how
    
    [ 言語と生活形式~哲学的観点から(水本正晴(北陸先端科学技術大学院大学))]
     問い: 母音a[あ]の色は? 赤/青: 共感覚者87%赤
     問い: 90%の人が「え」の色は?と問われて「緑」と答えるとすれば、
      日本人にとって「え」は緑を意味するといえるか?
      数字的な問題?納得できない?
     意味は規範的なものだから多数決では決まらない
      規範性とは?
     哲学方法論
      伝統的方法論: 概念分析(直感頼み?)
     研究者が何をしているのか、何をしようとしているのかを「像」として共有する方法?
 ウィトゲンシュタインのパラドクス
     言語の規範性
      規則性の科学/規則の科学
      規範性(規則)が入ってくると科学では扱えない?
     規範性とは何か
      「誤り」の事実がある、ということ
       「全ての人間は寝る」というのは規則でも何でもない(?)
     規範性なき言語?
      単なる規則性(傾向性,法則性)でなく規則(規範性)こそが言語を言語たらしめている
      これこそが人間以外の動物の「言語」と我々の言語を分けるものでは?
     原形言語と規範性: 傾向性がかけているだけの言語?
     生活形式としての理解することの重要性
     チョムスキーとクリプキの誤謬
      規範性は個人の心の内面、脳内にまで浸透しているようなもの(?)
    
    [ 構成論的研究の方法論的基盤について(大谷卓史(吉備国際大学))]
     実験としてのコンピュータ・シミュレーション
      理論における実験: 数学的に処理が難しい方程式の数値解析(理論存在)
      コンピュータ実験: モンテカルロ法のような現象の近似的モデルの構築(理論存在)
      人工生命: 一般的理論が存在しない現象に関するモデル構築(理論無し)
     共通な点
      現実の抽象化、モデル化
     違う点
      実験は対象やターゲットとなる現象と「深い、物質的な」類似性を有する。
      同じ「物質的原因」が働いている。
      コンピュータシミュレーションは「物質の介入がない実験」。
     実験としてのコンピュータシミュレーション
      物質的な類似性ではなくformal similarityを有している
      formal similarityの良し悪しが信頼性に影響
      世界屋現象の表象
      対象の振る舞いを理解しようとする科学者の活動
     構成論的手法には何が期待されるのか?
      背景知識の良し悪しが信頼性に影響
      どれだけうまく把握して利用していけるか
      アブダクティブな仮説形成やモデル、仮説の理解に有効
     コンピュータ・シミュレーションにはできない実験
      アブダクションと仮説演繹法の違い
      仮説やモデルの限界?
      適用分野の限定?(将来的には解消するかも)
      反証自体の発見には使えない(経験的テストの必要性)
    
    動物認知研究から考える言語の起源(岡ノ谷一夫(東京大学))
    
    [ 進化言語学研究における“方法論”をめぐって(池内正幸(津田塾大学))]
     実践的方法論
      生成文法理論研究がそうであった/あるように反証主義に拠るのがよい。
      仮説演繹とアブダクションの違い?
    
    指定討論者
     進化言語学は何を説明しようとしているかについての合意ができていない
      生成文法ではどうか、etc., といった前提に合意してもらう必要がある。
      反対は合っていいが前提合意がないと建設的にならない。
    
    
    naltoma: 哲学における規則と規則性/規範性の違いとは??
    naltoma: 意味の規範(哲学ではこっち?)と、社会的規範(一般的な意味がこっち?)
     というカテゴリで使い分ける必要があるみたいだけど、意味の規範とは?
    
    
    
    Q: 言語の進化について。
     言語の原形を探るための方法として、規範性/構成論/アブダクション, etc., 
     こういう構造を数学的な意味でのラティスにどう当てはめるべきかを考えるべきでは。
    A: そういう問いではサイエンティフィックな話が進まなかった。
     過度に一般化してはいけない。
    
    Q: 共通の目的がコンセンサスではないという理解で良い?
     何を知りたいのか。
    A: 個人的には言語が進化するのではなく新しい認知能力を持つ人の進化に興味がある。
     別の人は言語がどう変化していくか、
     言語の起源(生物学)や進化(文化進化)の両方に興味がある人もいる。
     何を知りたいかが起源なのかどうかでそもそも「言語とは何か」について合意がなされていない。
     少なくとも10年前に比べたら良くなったが、完全な合意ではない。
     チョムスキーのマージにおいて何が問題かを共有した理解を持つところには辿り着いた。
    
    Q: チョムスキアンな前提に基づいているように見えるが、
     他のフレームワークは考慮しているのか?
    A: 今日はチョムスキアンだったが、全員がそうということではない。
    A: 認知言語学については生成文法からの派生。
     言語の進化や起源についてはUG自体がどう出てきたかが問題。
     UGがどこから出てきたかという点ではどちらも同じ。
     個体発生/系統発生から始めているというところがエラーかもしれない。
    A: 人にだけ役立つものとして生まれているということを認めているのなら、
     そんなに差は無いように思う。
    A: 両方とも人間specficなのは、言語固有なのは何かが問われるべきだが、
     問題はそこが出発点。
    A: 背景知識の共有については、「背景知識」自体が定義されていない。
    Q: 規範はどこにある?
    A: 規範性は頭の外、いろんな事実の中にある。哲学的な見解。
    Q: 頭の外にある?
    Q: 数学的な意味だとか第三世界論として説明するというのは一つの手段だとは思うが、
     それとは違う?
     心理的事実でも物理的事実でもないけど、客観的な何かとして。
    A: 何と呼ぶかは分からないが、その通り。
    Q: 間主観的に頭の中にあるものを
     頭の中に無いと呼ばれるとサイエンティフィックな手法は無理では?
    Q: 進化心理学はまさに規範性の起源を追求していると思うが、うまくいかないと思う。
     言語の起源にサイエンティフィックに取り組むためには?
    
    Q: 言語の進化について
    Q: 人間固有の規範が存在するのであれば、このような多様な言語が何故存在するかという
     問いには答えられないのでは?
    A: 規則自体が多様で、そもそも「言語にとっての規範性」は切り離せないと思う。
    Q: 規範というのは個々のありようではなく、意味の規範と社会的規範から
     話して独立して話すべきもの?
    
    Q: 言語学からするとチョムスキーのような考え方では、
     言語に関する知識・仕様・神経的基盤等の観点から取り扱う。
     進化を考える場合には言語の仕様や神経的基盤が重要なのかなと思っていた。
    A: 神経基盤については鳥や人間などの例で一部進んでいる。
     仕様については起源じゃなくて文化進化の点では関与していると思う。
    
    Q: どうやったら知り得るのか?そもそも知り得るのか?
    A: 正解かどうかは分からないが沢山の知見が積み重なって何かしらの合意ができる
     ということはありえる。人間使った実験もコンピュータシミュレーションも必要。
     フォーマルセオリーを作って行くことが重要。
    A: 物理的基盤は因果関係を含むが、
     生成文法については因果関係を無視している。
     因果関係は複数あるのでそこを見ていくフォーマルセオリーが必要。