Archive for the ‘研究’ Category

日本認知言語学会 第13回全国大会 を振り返る #JCLA

木曜日, 9月 13th, 2012

日本認知言語学会 第13回全国大会が終了して数日過ぎました。

記録のため、見つかる範囲で関連ブログ記事を整理すると以下のようになります。

@naltoma: レポート: [ セミナー | 1日目(ワークショップを含む) | 2日目(シンポジウム含む) ]

以上。
Web上で何らかの全校大会に絡んだ交流跡がないかなと「JCLA、認知言語」で検索してみたのですが、書籍展示してた人のツイートや、Artaという言語を調査しているらしいドクターさん英語構文研究している院生ぐらいで、他は見つからず。他は自分のツイート(その1その2その3)が少しfavoriate, RTされたり、たまにJCLAでツイートが拾えるぐらいかな。ということで私の観測範囲とは接点が少ない学会だったらしい。それを踏まえると、取りあえず突撃してくるというアプローチは正しかったな。

當間レポートでは、ワークショップとシンポジウムについては割と細かいメモを取ってますが、一般セッションについては基本的に質疑応答を中心とした備忘録がメインでした。この記事では、「聴講した発表」を話の種に個人的に感じた感想や考え等についてつらつらと書いてみます。

ちなみに、今年に入ってからの学会参加振り返り記事はこれが3回目。1回目が情報処理学会第74回全国大会(IPSJ74)で、2回目が自然言語処理学会第18回年次大会(NLP2012)です。ここ数年の主な疑問、例えば「言葉自体の意味に個体差を気にせず利用できるのは何故か。どうして言葉等を通してコミュニケーションできるのか。身体以外に何があれば言語を獲得できるのか」等についていろんな立場からの事例や主張を聞けてとても楽しいです。


<目次>
コーパスから事例抽出して認知的側面から{仮説を導く|仮説の妥当さを補強する}
 いわゆる一般的な科学的アプローチ(事例を積み上げて仮説を補強しながら検証する)を忠実に守って取り組んでるような発表が多かったように思います。ただし、予稿や発表では意図的に省略しているのかまだ途中段階だからなのかは分からないのですが、「多くても事例数が数十」止まりで、少ないケースでは10に満たないものばかり。
 せめて「このケースに合致するのはコーパス上x%程度」とか割合も示して欲しい気がするんですが、(一般発表で)私が見た範囲ではそこまでやってる人はいませんでした。一人は質疑応答時に答えてる人がいたので、査読付き論文用に意図的に小出しにして様子見しているのかなと想像しますが。
 あと、仮説に関与している事例をコーパスから探す方法については誰も話していなかったのですが、簡易的なテキストマッチングぐらいで基本的には手動だったりするんだろうか。

仮説に合致しない事例は反例か例外扱いで済ます? もしくは仮説自体に制約を設ける?
 事例を積み重ねて仮説を補強するという話ではどうしても「合致しない事例が出てきたとき」の対応が気になります。聞いた発表の中では「探してきた事例に対しては十分説明できるように仮説を修正する」人もいましたし、「全事例の中では存在割合が少ないレアケースなので例外扱い」で済ましてる人もいました。いろいろ対応は考えられると思いますが、基本はその先に見据えているゴールとの整合性から妥当な方を選択するしかないのかな。

カテゴリー化とプロトタイプ理論の違い
 現地で聞いてる時点では、カテゴリーとプロトタイプというのが対比される形で使われているというよりは、カテゴリーの一種でデフォルトが決まっているのがプロトタイプという感じで聞き取っていました。
 カテゴリー化プロトタイプ理論を参照する限りでは後者は「典型事例とそれとの類似性によって特徴づけられるという考え方」らしいので、それほど間違った解釈ではないようなのですが、どちらかというとその後に補足されてる「境界は明確でなく、それぞれ典型的なメンバーと、非典型的・周辺的なメンバーをもつと考える」という点が重要っぽい。言い換えると、「未知の状況に遭遇した場合、典型的なメンバーとして考える傾向が強い」ということ。

[認知科学からの視点] 連続的に推移する世界はことばによって離散的に分節され、カテゴリーを発見・想像・修正を繰り返すことで多層的かつ重層的に捉える
 シンポジウムで認知科学専門の今井先生が話されてた内容を一文にまとめると、上記のようになると感じました。認知科学寄りの知識が不足し過ぎているので、暫く今井先生関連本とか漁ってみよう。
 上記のまとめで気になるのは、結局の所「ことば」を使って考えを表現したり、コミュニケーションしたりしている訳ですが、恐らく「ことば」を単体で考えてもうまくいかなさそうだという点。ヒトの「ことば」が「ヒトによる分節」という意思・意図を含んだものである以上、独立したものではありえない。そこにどう取り組むかという一つのソリューションが「場の言語学」ではあるんでしょうけど。

[認知神経学からの視点] 視覚情報では認知できなくとも非視覚情報では認知できたりすることから、入力モダリティ毎に意味システムを構築していると考えざるを得ない
 シンポジウムで医学・認知神経学専門の大槻先生が話されてた内容をまとめると上記のようになるのかな、と。例えば意味野の機能障害といってもいろんなレベルの障害があって、意味野にアクセスができない状態だと「たまにアクセスできることがある」状態では普段通りに振る舞えるが、「機能的な障害」だと例えば「りんご」があたかも存在しないように「意味」が喪失するらしい。
 変わった所だと「自宅にあるテーブルはテーブル」と認識できるけど、新しく見るテーブルはそう認識できないとか。これはプロトタイプ理論的には「デフォルトに相当する抽象化された概念はあるけど、そこからの派生を探そうとする」ところに障害がある状態なのかな。複数の入力情報から意味野への接続自体が多層的かつ重層的になっているので、どのリンクにどういう障害が起きるかによって症状が分かれるということではあるけど、一方でフェイル・セーフフォールト・トレランス等の柔軟な構成になっている側面もあって観察するだけでも大変。生きてるシステム(動的なシステム)だから尚更観察困難だとは思うけど、一方で、認知を身体活動を伴った環境との相互作用の枠組みで捉えないと解釈困難という点では認知言語学でも対象は同じ生きてるシステムな訳で、どちらも複雑系科学的な意味での「システムを構成する各要素が系全体としての挙動にどう関係しているか」を観察していく必要がある訳だ。

[場の言語学からの視点] 身体を通した自己の二重性と即興劇モデルに基づく共存在の深化(身体と身体、身体と環境との相互作用)が主体的な意識を形成し、コミュニケーションが産まれて言語へと発達した
 ワークショップで場の理論と認知言語学を統合しようとしてる先生らの内容をまとめると、上記のようになると感じました。自己組織化とか複雑系科学寄りの話は選書でも紹介した井庭先生の「複雑系入門―知のフロンティアへの冒険」を、言語未発達時に他者の行為を見ただけで理解するための説明としてでてきたミラーニューロンについては同じく選書した「ミラーニューロンの発見―「物まね細胞」が明かす驚きの脳科学」を勧めるとして、場の理論/自己の卵モデル/即興劇モデルについては清水先生の「場の思想」を参照すると良いらしい。やや古めの書籍が多いけど清水先生関連本も漁ってみよう。
 キーワードがあれこれ出ていますが、工学的には「ミラーニューロンを有する身体」を用意して、「人間に限りなく近いインタフェース」を持たせて人間を含む実環境で相互作用できるようにしてやれば、「主体的な意識」を形成して、「言語」を体系化していくのだろうか。ちなみに個人的には「身体」は仮想的なものでも大丈夫だというスタンスなんですが、少なくとも「自己の二重性(卵モデル)」を有する必要はありそう。
 この「場の言語学」の話を、個人的にはここ数年興味を持ってるキーワードが組み合わさっていくストーリーとして聞くことができてとても楽しかったのですが、一部はまだ納得いってません。これは私の勉強不足が大きな理由かもしれないけども。

[対話言語学] 音声言語に限らず手話にもプロソディがあり、プロソディの有無で内容理解度は大きく異なる
 NLP2012の市川先生による招待講演「対話言語」では言語を発話する際に生じる情報「プロソディ」を中心に、発話されたことばを理解するための負担に影響していることをいろんな事例で検証しているらしい。プロソディ自体は言語毎にどう発現するかは異なる(多分、同じ言語でも方言みたいなレベルでの差もあるんでしょう)ようだけど、例えばリズムや音程差として現れ、プロソディの有無と内容理解度について検証した一例では「標準音声で理解度80-90%と同じ文章を、プロソディ無しで音声合成した音声では理解度40-50%にまで落ちる」ということがあるらしい。つまり、対話言語には「テキスト」という側面だけでは把握できないコミュニケーションがあるわけだ。前述の「場の言語学」でいうところの「身体を通した人や環境との相互作用」や「対話の共同活動」という観点が不可欠、と。

[その他の分野] パターン・ランゲージという視点
 認知科学/認知言語学/認知神経学/対話言語学では、「普段何気なく行われているコミュニケーションって実はいろんな側面が絡んでて何をどうやって理解しているのか把握しきれていない」というような所に焦点を当てて分析しているというような印象が強い(個人的な主観です)のですが、これに対して「パターン・ランゲージ」では「創造・実践の経験則 を「パターン」という単位にまとめ、それを体系化」することに焦点を当てているようです。例えばプレゼンテーション・パターンでは一つのパターンを「状況、問題、フォース、解決、アクション、結果」という項目で記述しており、これにより例えば「同じことばで話してても話が食い違ってしまう。その違いはどこにあるのか」を区別しやすくするための言語として「パターン・ランゲージ」を提唱しているようです。講義資料もこことかいろいろ公開されていますので、興味がある人は覗いてみよう。
 経験則的な知識をパターン・ランゲージという形で整理するというのは、「再利用しやすい形に残す」ための方法論とも言えます。これを言い換えると、記録として残す事が困難な知識の多くは「徒弟制度/OJT」のような形で「体験することで多層・重層的に学習者が体系化していく」ことで受け継がれているかと思いますが、この多層・重層的に解釈していく部分を「言語化」することで見通し良く理解しやすくなるだろう。そのための方法論が「パターン・ランゲージ」だと解釈しています。普段の「対話」とは異なる状況ですが、相手に理解しやすくするための言語としてどう組み上げていくと紐解きやすくなるかという観点を、認知科学/認知言語学/認知神経学/対話言語学で分析する際の観点として役立てられないかなー。そういう観点がゼロだという意味ではなく、研究者間で観点の盛り込み方の差が大きい(ので全体像が見えにくい)という意味で。

という感じであれこれリンクさせながら長々と書き連ねましたが、レッツ・マッピングとか書いたので自分でもやってみている次第です。

[複雑研全体ゼミ補足記事] 8/13, RobocupSoccer Simulation2D

月曜日, 8月 13th, 2012

全体ゼミは取りあえず今日で終了です。

今日の全体ゼミ
 ・東川上: [1] RobocupSoccer Simulation2D
での関連話を補足します。

[1] 異なる戦略を実現するためのフォーメションの役割り -Robocup サッカープレーヤーエージェントに複数戦略導入を目指して-, FAN 2010, http://www.sd.tmu.ac.jp/fan2010/accept.html


>RobocupSoccer Simulation2D

 マルチエージェント環境における協調行動の一例として、サッカー・シミュレーションを題材に取り上げ、フォーメーションの良し悪しを評価してみたという話だったかと思います。

 サッカー・シミュレーションにおけるフォーメーションを検討してみる話は文字通り積もるほどあり、例えば [2] では「他者と協力して行動することが有利であるとは限らず、単独で行動した方が良い結果を生むこともある」という観点で「非協調行動」を導入した際のパフォーマンスへの影響を分析してみているようです。また、[3] では人間との対戦を通して「人間がどのように捜査するか」をモニタリングし、フォーメーションを変化させた様子等について分析をしているようです。

 具体的な題材賭してサッカーにおける協調行動を研究した結果、別の何かに応用できるのかという話もありましたが、そこら辺は [4] とか中心になって取り組んでるグループが唱えている趣旨や実例等も参照してみると良いかもしれません。

[2] チーム内での非協調行動のチームパフォーマンスへの影響の分析-RoboCup Soccer Simulation 2D において, 情報処理学会第72回全国大会, 2010, http://www.cyber.sist.chukyo-u.ac.jp/sirai/classes/seminar/IPSJ2010/pdf/ai/2V_9.pdf
[3] 人間プレイヤのポジションカバー行動の発現, 人工知能学会研究会資料, 2003, http://winnie.kuis.kyoto-u.ac.jp/sig-challenge/SIG-Challenge-17.pdf#page=31
[4] ロボカップ戦略:研究プロジェクトとしての意義と価値, 日本ロボット学会誌 2000, http://www.er.ams.eng.osaka-u.ac.jp/Paper/2000/Asada00g.pdf

[複雑研全体ゼミ補足記事] 8/6, 災害時デマRTの傾向

月曜日, 8月 6th, 2012

今日の全体ゼミ
 ・谷津: [1] 災害時デマRTの傾向
での関連話を補足します。

[1] 災害時Twitterにおけるデマとデマ訂正RTの傾向, 報処理学会研究報告. データベース・システム研究会報告, 2011, http://ci.nii.ac.jp/naid/110008583012


>災害時デマRTの傾向

 震災後1ヶ月ほどの期間を対象として、RT回数トップ1千件について主観的(?)に傾向分析してみたという話だったかと思います。

 特に震災時を想定せず、広い意味での信憑性という点では [2] 以降の記事が出典含めて参考になると思います。

 災害時を想定した情報抽出・整理という点では、例えば NLP2012 では「災害時における言語情報処理 [3] 」というテーマのセッションが設けられ、以下に掲げた概要で発表の募集がありました。

2011年は,東日本大震災を初め,世界各国が記録的な災害に見舞われる年となった.こうした災害時には,インターネットが重要な情報源となる.しかし,それと同時に多くの情報が飛び交い,人手での整理が困難な場合も多い.本テーマセッションは災害時における言語情報処理技術の役割を見つめ,インターネットなどで溢れる言語情報をいかに整理し,必要としている人に提供するかに関する議論・アイディアの共有を目的とする.災害情報の抽出・提示・信頼性判定,言語情報を用いた災害予測,災害時におけるコミュニケーション支援,地理情報や画像情報等との融合など,災害時の言語情報処理に関するあらゆる課題を対象とする.

 上記を受けて集まったのが、A4,A5の2セッション、合計11件の発表になります。情報源としては Twitter が多くなっていますが、Q&Aサイト/報道文書/ブログなど古くからあるものを使っている事例もあります。そういう情報源に対して何をするのかという点では、欲しい情報の抽出/流言デマ特性解析 [4] /行動経路抽出と可視化/救助要請情報抽出サイト構築、などが目標として掲げられているようです。

 上記テーマセッションの提案者でもある、ANPI_NLP プロジェクト [5] で精力的に活動されていた楽天技研の村上さんや、京大のNeubigさんらを含んだ全体討論が、A5セッションの後半で行われました。當間が解釈できた範囲になりますが、その様子を [6] に書いてあります。また、當間&与儀さんで少しだけ手伝ったという話もしましたが、それは ANPI_NLP プロジェクトの件で、[7] のようにコーパス構築を少しだけ手伝いました。

[2] 【Credibility for the 21st Century】1. イントロダクション / 「情報信憑性」研究者やまもとのウェブサイト, http://hontolab.org/research/credibility-for-the-21st-century-1/
 2. ウェブ情報の特徴, http://hontolab.org/research/credibility-for-the-21st-century-2/
 3. 信憑性研究の歴史, http://hontolab.org/research/credibility-for-the-21st-century-3/
 4. 情報ソースの信憑性, http://hontolab.org/research/credibility-for-the-21st-century-4/
 5. 情報ソースの信憑性に係る様々な要素, http://hontolab.org/research/credibility-for-the-21st-century-5/
 6. 「情報ソース = 組織」である場合, http://hontolab.org/research/credibility-for-the-21st-century-6/
[3] NLP2012, テーマセッション, http://www.anlp.jp/nlp2012/#thematic_session
[4] 流言情報クラウド:人間の発信した訂正情報の抽出による流言収集, 言語処理学会 第18回年次大会, 2012, A4-2, http://luululu.com/paper/2012/A4-2.pdf
[5] ANPI_NLP, http://trans-aid.jp/ANPI_NLP/
[6] A5:テーマセッション3 : 災害時における言語情報処理(2), 全体討論, NLP2012, https://ie.u-ryukyu.ac.jp/tnal/archives/2042#A5-discuss
[7] 東北関東大震災とソーシャル・メディア(ショートバージョン), https://ie.u-ryukyu.ac.jp/tnal/archives/1548

[複雑研全体ゼミ補足記事] 7/30, 検索支援, 路肩検出

月曜日, 7月 30th, 2012

今日の全体ゼミ
 ・玉城: [1] 検索支援
 ・山入端: [2] (サイクリングマップ生成を想定した)路肩検出
での関連話を補足します。

[1] SNS 上に蓄積されたインタレストグラフを用いた類似 ロールモデルの発見と企 業検索支援サービス, 情報処理学会第74回全国大会, 6ZE-5, 2012, http://www.gakkai-web.net/gakkai/ipsj/74program/data/pdf/6ZE-5.html
[2] 平面投影ステレオ視を用いた路肩検出, 電子情報通信学会技術研究報告. PRMU, 2009, http://ci.nii.ac.jp/naid/110007123826


>検索支援

 キーワードや辞書的な関連度検索ではなく、ユーザの好みから構築したインタレストグラフをベースに、類似したユーザを捜し出し、検索結果に繁栄させるという話でしたが、2ページ予稿ということもあって詳細が良く分からないままでの討論になってしまいました。
 「インタレストグラフ」自体は、特に情報推薦・情報フィルタリングの分野で行われているユーザプロファイリング [3] の一種としての造語のようですね [4]。プロファイリングをインタレスト(嗜好)のグラフとして構築し、グラフ間の類似具合で嗜好の類似度を測るということのようです。プロファイリング話なので、「インタレストグラフをどうやって作っているのか?」という風に調査するよりは、「ユーザの嗜好をどうやって抽出しているのか?」という視点での調査をした方が実りがありそうです。
 なお、このグラフ(ネットワーク)を利用した推薦としては [5] や、FAN2012での特別講演 [6] が参考になると思います。

[3] 情報推薦・情報フィルタリングのための ユーザプロファイリング技術, 人工知能学会論文誌 2004, http://nishilab-osaka-u.sakura.ne.jp/people/hijikata/arch/UprofText.pdf
[4] 意外と知らない「ソーシャルグラフとインタレストグラフ」の違いを徹底解説!, http://www.social-recruiting.jp/archives/398
[5] なぜ3人いると噂が広まるのか, 日本経済新聞出版社, 2012, http://www.amazon.co.jp/gp/product/4532261554/
[6] 特別講演「大学発の研究シーズ,ネット広告業界最前線に挑む」, 吉井 伸一郎 サイジニア株式会社 代表取締役, https://ie.u-ryukyu.ac.jp/fan2012/


>路肩検出

 自転車が交通可能なマップを自動車等で撮影した動画から生成したいという流れでの路肩検出の話でした。
 自転車マップとしては、[7] のように運転者自身の安全運転度合いを自動評価する試みや、[8] のようにアンケートベースでマップ作成しつつ危険区域(狭さ、段差、見通し、交差点など)も抽出するという事例があるようです。
 マップ生成とは異なるアプローチとしては、3軸加速度センサーを用いてリアルタイムに道路状況を推定しつつ、注意喚起を共有するシステムを構築する [9] という提案や、ハンドル操作やブレーキングなどの走行状態をモニタリングすることで快走性を評価する [10] という事例もあるようです。

[7] 装着型センサを用いた自転車の安全運転実態マップ自動生成の試み, 映像情報メディア学会技術報告, 2011, http://ci.nii.ac.jp/naid/110008687500
[8] 地域で取り組む地球温暖化防止のための社会実験 : (その3)自転車利用に対するアンケート調査と自転車利用マップの作成, 日本建築学会研究報告, 2006, http://ci.nii.ac.jp/naid/110006973449
[9] 口コミと路面状況を共有できる自転車用安全運転支援システム, 情報処理学会研究報告, GN, 2009, http://ci.nii.ac.jp/naid/110007993299
[10] 走行コンテキスト抽出による自転車の快走支援地図の設計と実装, 情報科学技術フォーラム講演論文集, 2008, http://ci.nii.ac.jp/naid/110007641719

[複雑研全体ゼミ補足記事] 7/23, 樹木生成モデル、強化学習

月曜日, 7月 23rd, 2012

今日の全体ゼミ
 ・潮平: [1] 樹木生成モデル
 ・慶留間: [2] 強化学習
での関連話を補足します。

[1] Simulating tree growth based on internal and environmental factors, 2005, http://dl.acm.org/citation.cfm?id=1101406&dl=ACM&coll=DL&CFID=129906701&CFTOKEN=72882969
[2] 宮崎和光.,村田元,小林重信: “Profit Sharingに基づく強化学習の理論と応用”, 人工知能学会誌 Vol.14 No.5 pp.800-807 (1999), http://svrrd2.niad.ac.jp/faculty/teru/xol_s.html


>樹木生成モデル

 どういう木を生成/再現したいのかという話や、そもそも最終結果だけで良いのか途中経過が大切なのかなど、研究目的自体を明確にしようという話がありました。
 その例として、「ユーザの望む結果」を生成したいのであれば、その「望んでいるもの」を何とかして低コストでシステムに入力できると嬉しそうだという例を話しましたが、より具体的な研究例としては [3,4] のようにインタラクティブに操作していくタイプの事例があるようです。特に [3] では、「パラメータが多く、局所的な形状に関与するパラメータから大局的なデータを推測しながら設定するのは困難」というような主張をしているらしい。
 別の例としては、 [5] のようにリアルタイムアニメーションを前提とした3次元樹木モデルの構築と計算量削減を行っている例があるらしい。
 目的と目標次第で評価方法が変わってくるので、自分が目指している場所を明確にしていこう。

[3] インタラクティブな生長シミュレーションによる3次元樹木モデルの生成, 日本バーチャルリアリティ学会論文誌, 2006, http://ci.nii.ac.jp/naid/110008728953
[4] 実写映像に基づいた3次元樹木モデルの生成, 電子情報通信学会論文誌, 1999, http://ci.nii.ac.jp/naid/110003183636
[5] 効率的かつリアルな3次元樹木モデルのアニメーションの検討, 電子情報通信学会技術研究報告, 2003, http://ci.nii.ac.jp/naid/110003272748


>強化学習

 部分観測に制限された状態(POMDP)ではマルコフ決定過程(MDP)が成立せず、次状態が「観測できる現在の状態+実行した行動」だけでは一意に定まらず、MDPを前提としたシンプルな方法だけではうまく学習が進まない。その一例としてループ問題を示し、一つの打開策として Profit Sharing が紹介されていました。
 部分観測が引き起こす「現実には異なる状態/状況を同一視してしまう」のは、何故起きてしまうのだろう? 例では2次元格子空間で表現された7×7~15×15のマップ内が用意され、例えばロボットが観測できる範囲が周囲1マスのように制限されると見分けがつかない状況が生じる、という話でしたが、人間だとそうは「なりにくい」はず。例えば、シンプルな3Dダンジョンゲームだと同じように「見た目には同じ」という状況は多々ありますが、歩数覚えるなりマッピングするなりして迷わないための工夫をすることで解決しようとするでしょう。
 つまり、単純に「観測できる現在の状態+実行した行動」で次状態を考えようとするのではなく、「観測できる現在の状態」を少し拡張して「どうやって現在の状態に辿り着いたか」といった履歴を活用して「異なる状況」として認識したり、環境自体にマーキングして観測結果を操作するなどして、POMDP環境下でも効率良く学習しやすくできると嬉しそうです。
 この「観測情報から状態空間を自動で構築していく」という方向での事例としては、[6,7] のように行動獲得やプランニングといったキーワードで研究がすすめられているようです。

[6] ロボットの行動獲得のための能動学習, 情報処理学会誌 (1997), http://www.er.ams.eng.osaka-u.ac.jp/Paper/1997/Asada97e.pdf
[7] 複数の学習器の階層的構築による行動獲得, 日本ロボット学会誌, 2000, http://www.er.ams.eng.osaka-u.ac.jp/Paper/2000/Takahashi00d.pdf

[複雑研全体ゼミ補足記事] 7/2, 交通シミュレーション

月曜日, 7月 2nd, 2012

今日の全体ゼミ
 ・与那嶺: [1] 交通シミュレーション
での関連話を補足します。

[1] A cellular automaton model for freeway traffic, Journal de Physique I, 1992, http://hal.archives-ouvertes.fr/docs/00/24/66/97/PDF/ajp-jp1v2p2221.pdf


>交通シミュレーション

 CAでモデリングする際の速度上限や格子サイズをどのように決めるべきかという話がありましたが、その一例として [2] では「車の最小車間距離(渋滞時のバンパー間距離)である 7.5m」をセルの長さとし、速度は0から最高速度までを整数化してv_max=5時に120km/hとなるように、実際の速度と対応させるという話が紹介されています。ただ、セルの長さを決めた上で速度 v を「単位時間あたりの移動セル数」決めると、その時点で移動速度が確定するように思うので、v_maxをどう設定するかというのはセルサイズと一緒に考える必要があるんじゃないかと想像しますが。

 都心部への自動車流入をコントロールする目的でのロードプライシング関連としては、利用の仕方に応じて課金具合を調整する [3] のようなデポジット制度が検討されているらしい。どういう状況で行動(駐車場/公共交通/徒歩/来ない)を変更するかについてもアンケート調査し、「来訪行動変更モデル」を構築する所までやってみているようです。実施前のアンケート調査主体なので、実際に施行された後でその回答通りに行動するかどうかは別問題として残るとは思いますが、一つのユーザモデルの作り方として参考になるかも。

[2] セルオートマトン法による道路交通シミュレーション, 人工知能学会誌 2000, http://ci.nii.ac.jp/naid/110002808261/
[3] デポジット制度による受容性と柔軟性の高い都市部自動車流入マネジメント施策の研究と実証, 道路政策の質の向上に資する技術研究開発成果報告レポート No.18-2, 2009, http://www-vip.mlit.go.jp/road/tech/jigo/h18/pdf/report18-2.pdf

[複雑研全体ゼミ補足記事] 6/25, UI全般の事例、自動運転/運転補助

月曜日, 6月 25th, 2012

今日の全体ゼミ
 ・西島本:視線インタフェースのデザイン [1]
 ・岩元:Traffic Light Mapping and Detection [2]
での関連話を補足します。

[1] 視線入力システムによるメニュー選択方法の有効性 : 若年者と高齢者の比較, 人間工学 2011, http://ci.nii.ac.jp/naid/10028058275/
[2] Traffic Light Mapping and Detection, Proc. of ICRA 2011, http://research.google.com/pubs/pub37259.html


>UI全般の事例

 具体的な方向性が決まっていないようなので、視線に限定せず UI 全般についての
事例紹介です。
 操作時のインタラクションを工夫するという事例としては、[3,4] のような疑似力覚や専用デバイス導入したものもあるようです。特に [3] は教育(学習)利用を想定してて、記憶の定着向上に向けたものらしい。[1] の視覚的なデザインとしての効果を高めるも「メニュー内の項目選択」のように制限して効果を測定しているように「ある特定状況下における効果」を測定するのは一つのアプローチですが、実応用を考えると多面的な視点が必須なので「どういうゴールを描いているか」を提示するのが先かなと感じます。勿論 [4,5] のように「新しいメディア」みたいな側面を重視する方向もありですが。
 ゼミ中の話題に出た「デバイス毎にコンテンツを最適化する必要があるのは面倒」という点での関連事例としては [6] のようなものがあるらしい。コンテンツといっても CSS/HTML に特化した例ですが。全く異なる視点の例としては、開発環境を提案する [7] というのもあるらしい。

[3] 擬似力覚を用いた概念マップ作成支援, 人工知能学会全国大会 2012, https://kaigi.org/jsai/webprogram/2012/paper-451.html
[4] メディアラボ第5期展示 「感覚回路採集図鑑」, 2009, http://www.miraikan.jst.go.jp/info/090924133793.html
[5] タンジブル・ビット : 情報と物理世界を融合する,新しいユーザ・インタフェース・デザイン, 情報処理 2002, http://ci.nii.ac.jp/naid/110002764323/
[6] 多様な閲覧サイズのためのWebページレイアウト最適化法の提案, 電子情報通信学会技術研究報告. NS 2009, http://ci.nii.ac.jp/naid/110007131194
[7] ユビキタスコンピューティングにおけるGUI-でバイス複合型のアプリケーション開発手法, 日本ソフトウェア科学会 2011, http://ci.nii.ac.jp/naid/110002764323/


>自動運転/運転補助

 自動運転/運転補助についてどういう問題例が考えられるか(というよりは他にどういうことに使えそうかという質問でしたが)という点については、例えば [8] の交差点内での衝突回避など、「予防安全」という観点からの取り組み [9]。
 [10] のように運転スキルを評価するという事例。
 また、[11] のように道路電気・通信設備なども含めた社会システムとして検討してるところもあるらしい。

[8] ポテンシャルフィールドに基づく交差点右折時の歩行者衝突回避に関する研究, 自動車技術会学術講演会前刷集 2011, http://jglobal.jst.go.jp/public/20090422/201102204186113173, http://technopark-tuat.com/tip/wp-content/uploads/Techno_park_MATSUMI_jp.pdf
[9] 予防安全装置の開発 (Active Safety Devices Development) / 東京農工大学 永井正夫研究室, http://www.tuat.ac.jp/~nagaimu/kenkyu_its0.html
[10] 高齢者の認知特性を考慮した運転能力評価システムの開発, 日本機械学会論文集C編 2011, https://www.jstage.jst.go.jp/article/kikaic/77/784/77_784_4591/_article
[11] 安全・快適ドライブをサポートするITS (ニュースレター), 電気学会論文誌D(産業応用部門誌) 2011, https://www.jstage.jst.go.jp/article/ieejias/131/10/131_10_NL10_1/_article/-char/ja/

[複雑研全体ゼミ補足記事] 6/11, Mario AI, プライバシー情報検出, 感情表現抽出

月曜日, 6月 11th, 2012

今日の全体ゼミ
 ・岩瀬:Mario AI [1]
 ・長浜:プライバシー情報検出 [2]、感情表現抽出 [3]
での関連話を補足します。

[1] Super Mario Evolution, http://julian.togelius.com/Togelius2009Super.pdf
[2] プライバシー情報検知のための知識の準備と学習 : 自然言語情報の開示制御技術DCNLの実現(2), 情報処理学会研究報告 2009, http://ci.nii.ac.jp/naid/110007160945
[3] 感情表現の抽出手法に関する提案, 電子情報通信学会技術研究報告 2004, http://ci.nii.ac.jp/naid/110003278750


>Linear Genetic Programming: 線形遺伝子GP

 Mario AI [1] で、Genetic Programming (GP) で木構造ではなく1次元配列表現で遺伝子表現することで進化しやすくなるという事例があったはずという話をしましたが、Linear Genetic Programming (LGP; 線形遺伝子GP) [4,5,6] でした。
 [4] では概要や提案時の論文が掲載されてるだけでなう、ソフトウェアも提供されてるようです(ただし多くは .exe ぽい)。また、[5] のようにLGPに特化して書籍化されたものもあれば、[6] のように他の最適化手法と比較されてる例も多々あるようです。

[4] 遺伝的プログラミング / IBA Labo., http://www.iba.t.u-tokyo.ac.jp/rs/gp.html
[5] Linear Genetic Programming (Genetic and Evolutionary Computation) [ハードカバー], Springer-Verlag 2006, (amazon) http://goo.gl/QMj2V
[6] A Comparison of Linear Genetic Programming and Neural Networks in Medical Data Mining, IEEE Trans. on Evolutionary Computation 2001, http://www.cpdee.ufmg.br/~joao/CE/ArtigosProgGen/NnGPcomparison.pdf


>プライバシー情報検出

 プライバシー情報検出 [2] について、想定している状況次第で「プライバシー情報」の定義や扱い方も違いそうだと思いながら聞いていましたが、古くは [7] のようにOECDガイドラインをベースにした話があったり、比較的最近だと [8] のようにリスクの拡大や、位置情報サービスを例にとった保護モデルの例が紹介されてたりするようです。

[7] ネットワーク上での情報統合によるプライバシー侵害とその対策, 電子情報通信学会技術研究報告 1998, http://ci.nii.ac.jp/naid/110003276315/
[8] ユビキタス情報社会のプライバシーとその保護技術(センシングネットワーク), 情報処理 2010, http://ci.nii.ac.jp/naid/110007700779


>感情表現抽出

 感情表現抽出 [3] について、抽出だけでなくその先(例えば Negative/Positive 分類とか)についての事例について調べてみました。[9-12]は言語処理学会第18回年次大会から「感情」というキーワードが含まれているものをピックアップしてみています。
 [9] では「機能(陳述/発話/質問など)」という観点で分類するという例(ただし[9]自体は分類体系を検討するのが主題で自動分類まではしていない)や、[10] のように語義・意味役割を付与したコーパスを構築し、傾向分析するという話などがあるようです。
 もう少し具体的な題材を見据えた事例としては、[11] の話し合い構造化(賛否表現分類)による「合議」を目的としている例や、[12] のうつ検出のために感情変動を推定するという例があるようです。

[9] 何をつぶやいているのか?: マイクロブログの機能的分類の試み, 言語処理学会 第18回年次大会 2012, http://www.anlp.jp/nlp2012/program.html
[10] 日本語テキストに対する述語語義と意味役割のアノテーション, 言語処理学会 第18回年次大会 2012, http://www.anlp.jp/nlp2012/program.html
[11] 賛否表現評価ラベルによる合議目的の話し合い構造化の試み, 言語処理学会 第18回年次大会 2012, http://www.anlp.jp/nlp2012/program.html
[12] うつキーフレーズと感情変動に基づくブログからのうつ検出手法, 言語処理学会 第18回年次大会 2012, http://www.anlp.jp/nlp2012/program.html

複雑研全体ゼミの補足記事を公開してみるテスト

月曜日, 6月 11th, 2012

 複雑研全体ゼミ終了後に、関連事例・研究について作文したものを研究室内MLで post & share しているのですが、「折角時間かけて作文してるなら研究室紹介とかも兼ねてブログで公開したら良いんじゃね?」と思ったのでこっちにも掲載してみるテスト。

 複雑研全体ゼミって何よという人向けの解説は以下を参照。実際の補足記事は別記事としてポストします。


 複雑研(遠藤・山田・當間・赤嶺研)では、配属したばかりの学部4年次向けに4研究室合同でのゼミ(通称全体ゼミ)を実施しています。初めて研究活動に携わるということで、指導教員と相談の上興味のある論文等を選択し、それを持ち寄って紹介・解釈(プレゼン)/討論するという輪読形式で進めています。数年前までは「複雑系入門」を使ってたのですが、ここ最近は前述の通り「指導教員と相談の上興味のある論文等を選択」しているので、テーマ・分野がかなり広がっています。関連事例について作文しようと思った切っ掛けは、各分野における一つの研究例を見るだけじゃなく、それを出発点としてどういう広がり方があるかを紹介することです。

 例年だと、「発表+質疑応答ベースの討論」をするところまでが学生交えたやりとりで、最後に教員からプレゼンの仕方について気になる点をコメントするという流れでした。今回は、プレゼンテーション・パターンという「創造的プレゼンテーション」の秘訣を言語化したものが公開されていることもあり、Presentation Patternsに学ぶプレゼン・ハックのススメに準ずる形で「学生自身も他の人のプレゼンを評価・コメントする」方式を試してみています。

 例えば、1回目のコメントはこんな感じで、聴講者毎に一つのパターンを担当してもらい、その観点から良し悪し気になる点を挙げてもらっています。(「それ以外のコメント等」がほぼ毎回空欄ですが、質疑応答については別途議事録担当者にメモってもらっています。)必ずしも全てのパターンが有用とは限りませんが、良し悪しについて話をしやすくなってる分、プレゼンの資料作り・話し方といったプレゼンテーション・スキルについては去年までと比べると比較的良いように感じます。たまたまそういう学生が揃ってるというだけかもしれませんが、少なくとも互いに指摘しやすくなってるのは大きなメリットです。

 先週で全員が1回ずつ発表し終えたので、今週からは「前回貰ったプレゼンに対するコメントを踏まえ、少なくとも1件については具体的な改善を試み、実際にやったことを説明する」ことと、論文の読み方に準ずる形で「前回照会した論文と今回セレクトした論文同士の関係性について説明する」ことを追加してやって貰っています。この読み方については2月には紹介済みで、それを踏まえて実際にやってみようというのが趣旨です。

 この関係性についての説明を「やれ」と言ってやらせるのも良いんですが、一つの具体例ということで全体ゼミ時の時間内には質問できなかった項目について取り上げ、それを紹介する文というのを作文してみています。作文した内容は研究室MLにてpost & shareしているんですが、実際に紹介した論文に目を通す学生が出てきたり、他の先生からの関連事例についての補足も出てきたりしているので作文している意味はあったのかなと。

言語処理学会第18回年次大会(NLP2012)を振り返る

水曜日, 3月 21st, 2012

自然言語処理学会第18回年次大会(NLP2012)が日程上終了しました。

記録のため、見つかる範囲でNLP2012関連ブログ記事を整理すると以下のようになります。

當間レポートでは基本的に質疑応答を中心とした備忘録がメインでした。
この記事では、「聴講した発表」で興味深かった内容等についてつらつらと書いてみます。


<目次>
知識表現について

不勉強を承知の上で書きますが、知識の表現方法として様々な取り組みが行われているにも拘らず未だにうまい解決方法が見つかっていない。問い方が悪いという側面も意識はしていますが、representation 問題に関するモヤモヤ感が拭えません。乾先生のチュートリアルで紹介のあった「Distributional semantics」というのも一つの道だと思いますし、propositionalとの融合という道も分かりますが、直感的にはうまくいきそうに思えないです。ここでいう「うまくいきそうにない」は、私にとっての設問が人工生命・人工知能寄りの話であって、固定ドメインでの固定タスクに特化させたアプローチとしては十分機能すると思います。そういう意味では「Distributional semantics」という考え方は興味深い。

(目的に応じた)特徴量表現について
前述の知識表現と絡む話ではありますが、「文書分類するなら/深層格抽出するなら/同義語抽出するなら/etc.こういう特徴量」というような、大雑把にまとめてしまうと「目的に応じた代表的な特徴量表現」というのがあるかと思います。研究の掘り下げ度に応じて新たな表現形式が日々生まれてくるのは良いとして、目的に応じてユーザが取捨選択するというのではなく、取捨選択まで含めて低コストで最適化できないのかなぁ。

単純な定式化方法としては「予め候補を列挙しておき、最適な組み合わせを見つける」みたいなのが思いつきますが、うーん。そこまでやるならもう一段メタ的にレベル挙げて、対話的に背景・目的・目標・例題等を提示しながら問題設計をサポートしてくれるような所を目指した方が嬉しそうではある。災害関連テーマセッションの全体討議で出たような「ポイントが別にもあって、災害時にはガソリンが無くなるとは誰も思っていなかった/原発壊れる/計画停電などなど、予測できなかったイベントが多かった。どういう情報を抜いてくるかが分からない状況下で「抜いてくる」というタスクは一つ大きな面白いタスクだと思う。」への一つの解としては、そういうのを低コストに実現する必要があるのかなと想像。より現実的なエキスパートシステムとか、実際に現場で利用できるレベルでの知識の蓄積の仕方、と考えても良いかもしれない。専門家に相談したら良いという話でもあるけど、それも難しい状況があるわけで。

そういう状況&タスクに相当すると思われる一例として、行政に関するSNS上のコメントの自動分類とか、「東日本大震災関連の救助要請情報抽出サイト」構築と救助活動についてあたりのタスクは、前述の「より現実的なエキスパートシステムがあればそのレベルは一定程度解消できる」ように思う。前提が曖昧過ぎますがw

IEICE SIG-WI2関連のツイート(@m2nrさん)で見かけたのですが、減災情報システム合同研究会なるものが4月に発足するらしい。

含意関係認識について
RITEに含まれてる1タスクですが、NIIの宮尾さんが大学入試関連の発表で言われてたように「記憶していることと問われていることが意味的に一致しているかどうかを認識するタスク」という観点から「人間がテキストを介してやっているものは何か」ということへの解明に迫ろうとしている点はとても面白い。去年のキックオフシンポジウムでもあった「含意関係認識以外にどういうタスクがあるのか、それらを積み重ねていったその先にあるものは何か」という点は、何があるのだろう。一方で、ここで挙げた「知識表現/特徴量表現」みたいなことを考えると、実は今回の取り組みもまだ「実はロジックで記述可能な文章」に制限されてたりしないかという気もする。

いろいろ関連発表ありましたが、個人的に続きが気になるのは数量表現を伴う文における含意関係認識の課題分析

発話文の前提の推定
対話のような複数主体が共同活動するには「必要な知識・信念(=前提)」を共有化する必要があり、対話を通してその前提をどう作り上げていくかという話。英語テキストでは前提推定に役立つ手掛かりに関する研究が多々あるけど、今回は日本語でやってみたらしい。「前提」という考え方が良く分からないけど、「対話」を対象にしているだけあって他には無い視点(だから理解し難いの)かもしれない。

説明生成に基づく談話構造解析の課題分析
対象は英語談話で、Boxerというセマンティック表現に変換するシステムを利用しているらしい。特に「接続詞が非明示的(implicit)な状況での意味的関係」を推定するタスクの解決が目的で、現状ではF値4割程度とのこと。日本語だとどのぐらいやられているんだろう。深層格推定にも近いタスク?

複数ドメインの意見分析コーパスを用いたアンサンブル学習による意見分析システムの提案
「ドメイン」そのものを自動抽出というか自動分類するようなシステムがあると良さそう。目的に応じて異なりそうなので、そこも加味する必要ありそうだが。

定義文から自動獲得した言い換えフレーズペアの分析
人手でアノテーション精査した後でALAGINフォーラムで公開予定らしい。いますぐ必要なデータというわけではないのだけど、あれこれ言語資源が提供されてるという点ではとっとと使える状態になっておく方がベターだとも思う。ぐぬぬ。

法令文の構造的書き換え
タスクとして面白いのだけど、アプローチとしては情報処理学会全国大会であった係り受け構造アライメントを用いた文間の差異箇所認識の方が実用面で使いやすそう。法令文ならではの特有タスクもあると思うけど、より一般化されたタスクという点で。

2ツイートを用いた対話モデルの構築
最終的な目標をどういうところに設けているのか分からなかったですが、個人的には「より人らしく見えるbotのモデル化」みたいな視点で話を聞いてました。人らしく見えるというだけで、提案/推薦/相談とかいろんなタスクへの心的負荷軽減に繋がるんじゃないかなーとか。もやもや。

同じような点では、市川先生による招待講演での「対話言語」という切り口での仮説や検証結果がとても面白い。こんな話されたら「書籍:対話のことばの科学」を即ポチリますとも。

コールセンタ対話における話者の知識量推定も、ある意味「早い段階で対話相手の知識量を把握することができれば、それに応じてより適切な対応を取りやすくなる」みたいな話に繋がるんだろうな。

何をつぶやいているのか?:マイクロブログの機能的分類の試み
ツイートを機能面で分類しましょうという話で、まずは分類体系について検討したという話。こんな感じであまり良く考えずに「まずやってみてから問題点を洗い出す」というアプローチも、ある程度の知見を得られたのでやって良かったではありますが、もう少し後先の事を考えてアクションに移すべきだったか。とはいえ、今はまた「体系なりの指標をシステム構築者が設計する」というのに限界を感じてたりするので、別アプローチ取ってても同じ道を歩んでいたとも思う。いくつかの代表的な俯瞰目的にはこういう体系化が大切なんだと思う。

俯瞰目的によっては、意味検索のプロトタイプシステムの構築や、料理レシピテキストの構造解析とその応用のようなアプローチの方が良さそう。前者だとあるキーに対する機能的側面による絞り込みがしやすそうだし、後者だとフローチャート化することでストーリーを加味した抽象化ができそうな予感。ストーリー性という点ではストーリー性を考慮した映画あらすじからの類似度計算というような話が情報処理学会全国大会でありました。

小学生のための新聞読解支援に向けた重要語抽出の検討のように、注目されやすい/説明を聞きたくなりがちな観点での重要語を自動抽出することで「デフォルト視点」みたいなのを設計することもできそう。

ランダムフォレストを用いた英語習熟度の自動推定
今回「作文・校正支援」関連の発表を聞けていないのですが、こういう「習熟度推定」という側面も一つの校正支援ができそうだなと思って聞いてました。

作文事例に基づいた児童の「書くこと」に関する学習傾向についての分析−小学四年生による紹介文・感想文を中心に−も、校正という観点からどういう風にアノテーションしたら良いのかという点でとても参考になりそう。大学での課題指導か、論文指導版であれこれ校正コーパスあると嬉しいよなー。

違う観点になりますが、機械生成した作文でも同じ特徴量で評価できるのかしら。


同じく校正の一例としては冗長な文の機械的分析と機械的検出みたいな話も。

辞書の意味を利用した日本語単語と英語単語の難易度推定
情報処理学会全国大会でも同じく「日本に住む外国人」にとっての日本語の難易度推定という話がありましたが、こういうのを突き詰めていくと頭脳プロジェクトでいうところの「外国人向けの誤解し難い制御された文」みたいなものを生成できるようになったりするのかな。

論文間参照タイプ判定の細分化に基づくサーベイ補助システムの構築
是非とも実用レベルに仕上げてCiNiiに組み込まれて欲しいw

住民参画Webプラットフォームにおけるコンサーン・アセスメント支援機構
個人的に学会イベント参加する度に「イベントレポート」として文章化(記録化)していることもそうなんですが、こういう学術交流に関する「論文」以外の交流(質疑応答とか)をうまく残すことってできないのかなー。pingpong project(ピンポンプロジェクト)の一側面とも思ってたんですが、久しぶりにブログ見直してみるとあまり続いていない(?)ように見えるし。うーん。

安否情報ツイートコーパスの詳細分析とアノテーションに関する一考察
災害関連については既に書いたのでここではANPI_NLPの今後について。全体討議でも話題になりましたが、「災害ツイートコーパスがないとできないことと、そうでないことはあるか」が気になります。憶測・デマ混じりの中で云々というのはそのタスク例なのかな。A4:テーマセッション3 : 災害時における言語情報処理(1)ではそれ関連の発表が多かったらしい。