Archive for the ‘複雑研’ Category

全体ゼミ、個別ゼミ、#長田研勉強会

火曜日, 7月 15th, 2014

週末から昨日にかけての3連休は喉にくる風邪で体調回復に努めるために引き蘢ってました。しくしく。本当は引き蘢るの楽しいけど、半強制されると気持ち的にはちょっとね。で、今日から通常業務してた訳ですが、隣室の岡崎先生も大分喉の調子が悪い。何かそういうタイプの風邪(?)が流行ってるのかしら。体調第一に頑張りましょう。(体調悪い時に休むのは構わないから、そうじゃないときは取り戻すぐらい頑張ってくれ>休む人)


朝一は先週台風でお流れになった複雑研全体ゼミで、今回は「統計的機械学習―生成モデルに基づくパターン認識」の4章の演習、5章「最尤推定法の理論的性質」、6章「線形判別分析による手書き文字認識」。

4章の演習は正規分布に従って生成したサンプルを対象として最尤推定するというもので、サンプル数の変化に王子で推定結果がどう変わるかを眺めるというシンプルなタスク。教科書のコードはOctaveだと古過ぎる(教科書はOctave2.x, 現バージョンは3.x)らしく、そこで手こずったらしい。バージョン重要。

5章「最尤推定法の理論的性質」は、一致性(サンプル数が無限に多い時に最適な推定量が得られる)、漸近不偏性(サンプル数が無限に多い時にバイアスがゼロに確率収束)、漸近有効性(バリアンスの有効推定量の下界がクラメール・ラオの不等式で与えられる)、漸近正規性(サンプル数が十分に多いとき推定量が近似的に正規分布に従う)なお話。「これらを満たしてるとどう嬉しいのか」とか、現実の問題例を挙げて「必ずしもサンプル数が大量にあってからといって適切に推定できるとは限らない」とか、あれこれ。

6章「線形判別分析による手書き文字認識」は、具体的なデータセットを使って(最尤推定に基づいた)線形判別分析をしようというお話。分散共分散行列は全カテゴリで等しいと仮定している分、コードが易しくなってるっぽい。


m_2014071502344253c49342e4eee

午後の個別ゼミは源河くんで、もともとやりたかったことをベースに話してもらい、具体的にどういうことかを事例列挙。それをまとめたり具体化したりを行きつ戻りつしながら問題設定例へ。今の所、キーワードになりそうなのは「支援」?。

その後はいくつか事務処理しつつ、オープンキャンパスの書類作成。後は印刷準備とまとめ役お願いする学生との打ち合わせぐらいかな。


#長田研勉強会なるハッシュタグで勉強会告知等やってるらしい。どんなことやってるかはRSSの全体RSS眺めてみれば分かるかも。こういう情報はどしどし共有(探しやすく)すると良いんじゃないかと。勉強会に参加するだけじゃ意味無いけど、切っ掛けには良いし。

直接伝えても変わらないなら間接的に伝える

火曜日, 6月 17th, 2014

m_20140617114040539faaa8a9378 m_2014061718385553a00caf69587 m_2014061718420153a00d69c6d44 m_2014061718450753a00e236086f

昨日よりは少し湿気具合が下がってる? と思えるぐらいには空気入れ替えしたかったんですが、それでも湿度が高いことには変わりないので空調ドライモードで凌ぐ日々。自分の教員部屋にあるやつは付けっぱなしにすると湿度40%近くまで下がり続けるんですが、ここ1週間ぐらいは50%にもならない。それぐらいには湿気が入り込み続けているらしい。ちなみに出勤した時点では70%〜80%なことが多い。しくしく。

全体ゼミは、残ってる2.4節は更に延長して、今日は新しい教科書「統計的機械学習―生成モデルに基づくパターン認識」の割り当て調整のみ。欠席がちだった2名にはお灸を据えたこともあって今日はちゃんと来てた(遅刻してたけど)し、終わった後で打ち合わせ&5時限目に3人で読み進めるとかやれたので、これからはしっかりしてくれることを期待。

実験1・スクリプトプログラミングのレポート採点を開始。したけどあれこれタスクが舞い降りて来たのでやれたのはまだ10人分。この調子だと終わるのは来週か〜。まだ出してないe13な人へはお灸を据えるつもりです。webclassでの達成度評価(振り返り)もしてないやつがまだまだいるなー。何度言えば以下略

面白そう&切っ掛けになる課題を検討するのが一番手間暇がかかる

火曜日, 6月 3rd, 2014

m_20140603183116538d95e417065

昨日はブログを書き忘れていたらしい。実験1の準備してたからが半分、体調不良っぽいのも半分か。そろそろまとまった休みを取りたいな〜。

朝一の複雑研全体ゼミは、The Elements of Statistical Learningの続き。延長しっぱなしの2.4節(統計的決定理論)を導入だけやり、2.7〜2.8.2節あたりをメインにやってました。2.7節は、残差平方和を最小化するだけでは必ずしも良くなるとは限らず、モデルの複雑さ(自由さ)によっては過適応のような局所解に陥ってしまいがちなため、それをなるべく避けるために制約を導入している事例が多々あるよという話。2.8.1節は制約の一例としてペナルティ項、特にroughness penaltyを導入した平滑化する事例。2.8.2節はカーネル法による重み調整、2.8.3節も制約の概要紹介ということでこの辺りは全て「詳細は後の節で話すね」という概要紹介な節でした。これで一先ず2章については延長しまくってる2.4節のみ。終わったら3章に入るかどうか悩んでいるのですが、試しに学生に別の書籍(和書)見せたらこっちが良いというリクエストが。うーん、どうしよっかなー。幸い決定するまでの時間がまだ取れるので、もう暫く考えてみよう。

実験1/スクリプトプログラミング(シェルスクリプト)は、例年だと2年次の実験1回目でやってるのですが、他の先生が出張と被ってどうしても最初にしたいということで調整。その次にやればよかったかもですが、それを切っ掛けに調整がされちゃったのと、私がやってるテーマは分かり易いから「これやる前にこれが必要な実験はやらないだろう」とか思ってたら、どうやら違ったらしい。しくしく。

やるタイミングが後ろにずれたからという訳でもないですが、ある程度シェルスクリプトな話を他の週でもやってるならということで、ベーシックな話はシンプルに例示&演習する形で終了。便利なコマンドを紹介する所までで100分ぐらい?か。休憩を挟み、今回の課題をやる&解説する時間に。どちらも「TSV保存されたログファイル(今回はツイート関連情報)から必要な箇所を抽出し、数値処理した上でグラフ化せよ」という課題。具体的には、Level 1 では「一日あたりのツイート数をカウントし、ツイート数/日な線グラフを描け(gnuplot)」。Level 2 では「mention map を描け(dot/graphviz)」。というお題。課題を大きく変更した分手間取ったというか予定通り(?)にハマってしまって、それ込みで丁度の時間。なかったらもうちょい余裕もって終われたはずなんだがが。ま、あたふたしてる姿というかトラブルシューティングしてる様子を見れるのも良いよね。

職種/業務で決めるかヒトで決めるか

火曜日, 5月 27th, 2014

早朝からゼミがある日で早めに出る必要がある時に狙い撃ちされたかのような土砂降りで、家を出て5分ぐらいはぽつぽつだったのが残り10分の土砂降りで前進ずぶぬれで一日が開始。靴下や肌着が絞れるグライ濡れたのって久しぶりだ。もう辞めてくださいお願いしますorz 取りあえず雨合羽買うか。。夕方には明日開催する就職説明会のための準備で屋外作業があったのだけど、この時にはほぼ雨が止んでて助かりました。まだ就職先決まって無い学生多いは図なんですが、先週来た人は工学部全体を併せて40〜50名程度。しくしく。

就職に限らず自分の進路について「どこに行くか/飛び出すか」というのを考える際の基準として、大別すると業務/待遇辺りを想像する学生が多いのかなと思うけど、どういう組織でも結局は人の集合体(=環境)だというのを忘れてしまってることが多い気がする。真面目に進学考える人はそうでもないので、半分は勝手な妄想ですが。どんな仕事だろうと「この人と一緒ならやりたい/やれる」とかその真逆のケースは世の中少なくないので、どういう人がいるかの一例として説明会を使ってみよう。勿論それ以外の用途でも良いので、折角企業さんが集まって来てくれてるし、大学としてはその場を提供し、開催できるように事前調整や当日設営等やってる訳で、そこまで企業や大学が手間暇(コスト)かけても活用されないようならば、自然消滅するだけです。それで良いなら良いけどね(個人的にはそれで良いじゃんと思っている)。

火曜の朝イチは複雑研全体ゼミということで、今日はThe Elements of Statistical Learningの2.6節に突入。前々回から欠席で飛ばしたままの2.4節は今回も実施できず。しくしく。一人は今日からちゃんと参加(担当箇所つまづきまくってたようだけど、半分は自業自得)。もう一人も土曜日の進展状況としては全く同じで、今日は欠席。(もう叱りではなく)お怒り電話しようとしたら雨での事故だとかで身体的にはかすり傷程度で済んだらしいのが幸い。電話で話してる限りでもしっかりしてるようではあったし。ということで、互いに連絡取りあってやるようにと指導。

2.6節は、(前節まででoverfittingに対する直接的な対処はデータセット自体に手を加える(e.g., 次元数を減らすorデータ件数を増やす)ことを示したが、)より一般的な高次元データにおける問題点(次元の呪い)を示した(2.6節冒頭)上で、今度はデータ側ではなくモデル側での工夫についての基本的な対策を例示しているというストーリーっぽい。2.6.1節で、正規ノイズを付加したモデルで表現することで量的処理に注力できるという話。これは教師あり学習として見直すと誤差と同等(2.6.2節)で、それをより一般化して書くと仮説hとパラメータθに基づいた加法モデルとして表現でき、その時の最適なθは「訓練データを最も良く再現する(最尤推定)」ように求められる(2.6.3節)。モデル表現の仕方についてはModel Representation教師付き学習の問題定義あたりを。最尤推定については最尤推定統計的機械学習入門の導入あたりを眺めるとイメージし易いんじゃないかと。他にも数式表現についてあれこれ補足したり。

m_20140527180259538454c32d8fd

晩ご飯は実家からの差し入れを温めただけ。あ、ご飯がやや少なかったので支那そばは追加したな。実家帰る度に大量の差し入れ(生もの)が来るので帰る頻度/回数をなるべく最小限にしているのですが、先週末に通院のために帰った際に傘を忘れてしまい、それを持ってくるついでに更に差し入れが追加という状況に。食べきれないってば。とはいえ、どうやら「何でも食べる自分が居た時」と「好き嫌いが割と激しい、今残っている家族」とでは母も食べたい物がなかなか作れないとぼやいてたな。その気持ちはとても分かる。ボイコットしよう。

今日の全体ゼミは過学習な話

火曜日, 5月 20th, 2014

複雑研全体ゼミは前回怒ったからかほぼ遅刻者無し。でもうちの学生2名が担当にも関わらず無断欠席(もう夕方なんだけど何も連絡無し)という。しくしく。怒って欲しいなら怒るけどさ。そうじゃないならやることやって欲しいのだが。。

2.4節は担当者不在のため飛ばして、The Elements of Statistical Learningの2.5節に突入。やれそうになかったら2.4節をその場で皆で読もう〜という形でやるつもりだったんですが、次の人達が準備してくれてたのでそっちをやることに。話としては、2.3節でシンプルな予測モデル(最小二乗法、k近傍法)が出てきて、2.4節で統計的決定理論。これらのシンプルな方法に対する警鐘という位置付けっぽく、2.5節ではいわゆる次元の呪いな話が数式&グラフで解説されてました。という風にストーリーを想像して読もう(勉強)しよう。解説記事としては [ 前編 | 後編 ] あたりを読むと良いんじゃないかと。簡単にまとめると、理想的に必要な分量&質の学習データを準備できるならば理想的な精度が出せるのだけど、一般的にはそんなことはあり得ない。ビッグデータでもなんでもそうだけど、データ件数を多く集められたとしても多くの場合はデータに偏りがあったりノイズが少なくなかったりするため、データを過信し過ぎた予測モデルでは「事前に与えられたデータに対してはうまく回答できるが、未知データに対する精度が落ちてしまう」、というお話。具体的な話や一般的な対策は以下を眺めてみると良いでしょう。

シンプルなモデルを実装してみて、かついくつかのデータパターン用意してみて、実際に眺めて見ると理解し易いだろうとは思います。その意味で機械学習 はじめようシリーズ記事は秀逸。だから学生向けに紹介してみたのだけど、どのぐらいの人が手をつけてみてるかは良く分かりません。

久しぶりの複雑研全体ゼミは遅刻&欠席多数

火曜日, 5月 13th, 2014

m_201405131828125371e5ad001e1

全体ゼミを火曜日1時限目にやっているのですが、調整に時間かかって開始したのが 4/22。その後2週間が祝祭日に被ってお休み(やっても良かったんだろうけど)で、5月中盤に入ってようやく2回目です。

内容的にはThe Elements of Statistical Learningの2.3節だけで90分かかっちゃったか。「この式どう展開したら次の式になるの?」「この図の読み方は?どういうことが分かる?」「k-NNのk=1はどういう状況?」とかとか。あれこれ突っ込んでるんですが、本当は学生自身が気になる所/分からない所をどしどし突っ込んで欲しい。皆で勉強するのが輪読なので。

手元のメモを見直すと「linear modelとは?」「affine setとは?」「intercept / biasとは?」「metric / momentとは?」「majority role以外にどんなvoteがある?」「voronoi tessellationとは?」「an independent test would give us a more satisfactory meansなのは何故?」「variance と bias の違いは?」とかあれこれ書いてあるんですが、発表では出て来なかった単語はツッコミし忘れてたな。失敗。専門書ではあるので「分からないのは取りあえず飛ばして読み進める」のは良いんですが、後で振り返られるように一通りメモっとこう。そして最終的には一通り理解できるようになろう。勉強の仕方を学ぼう。

P.S.
今回は欠席&遅刻多数。欠席の多くは就職活動かなと想像するんですが、それならそれで報告しろよ〜。社会人になるんだよね? というツッコミの多くは2回連続で欠席してるうちのメンバだったりもしますが。しくしくしくしく。謎の欠席しがちに加えてそもそも研究室ドメインのメールを読んでなかったというのが先週発覚したので、そっちの分を改善できつつあると期待するんですが、どうやったら毎日大学(研究室)に来るようになるかな。。そろそろ「親に通知」という技を出すつもりではあるんだけど、成人してて就職活動までやってる人がそこまでやられたいの?という疑問が。

複雑研全体ゼミ1回目が終了

火曜日, 4月 22nd, 2014

先週はまだ調整中で、今日から全体ゼミが始まりました。といっても来週&再来週は休日になるので次回は5/13という。1限目ということもあって遅刻者続出。次回も似た状況なら一度怒ろう。大幅遅刻&欠席者がうちの研究室ばかりというのはちょっととてもかなり悲しかった。しくしく。

2012~2013年度は複雑研全体でやることの意義が薄かったこともあり、機械学習+統計学な書籍をチョイスして輪読することに。読んでるのはThe Elements of Statistical Learning: Data Mining, Inference, and Prediction. Second Editionで、統計学ベースの機械学習そのままですが、基本からハードな所までたっぷり用意されてるので少しずつ進めればどの研究室でも良い基礎になるんじゃないかと。今日は1章〜2章2節までで、内容的にはイントロ+例題イメージ紹介+全体像と単語の定義、といったところ。学生からの質問は「regression って具体的に何をどうするの?」とか。y = f(x) とか式立てて説明する方が分かり易いか。他にも「identify と recognize の違いは?」とか「example1のように単語同士をくっ付けて書くと英語圏の人はイライラする」とか。似た単語については英英辞書や類義語事典でニュアンスの違いを調べたり、良さそうな例文見つけたら収集するのが良いでしょう。幸いなことに Mac OS X なら英英辞書も英語シソーラスも最初から付いてるし(やったね!)。科学論文の英語用法百科〈第1編〉よく誤用される単語と表現も、オススメ。

m_20140422151741535609855f76d m_201404221842555356399f17654

朝一からの動いていることもあって普段通りの食事だともの足りず。午後はオヤツ食べつつ、午後は学生の登録対応しながらPD2の情報収集。ジュンク堂でパラパラ見て良さそうだったので東大物理学者が教える「考える力」の鍛え方を買ってみました。話題として研究の進め方/テーマの決め方とかも出てくるんですが、何処もにたりよったり(参考になりそうな文献提示しまくり、少しずつ知見を増やさせながら体系化させていく)なんだな。

学期末テストシーズンを目前に複雑研全体ゼミが一段落

月曜日, 7月 29th, 2013

m_2013072911570151f5d9fd3dc85

バスでの帰りに1時間以上かかるのですが、(読んでると酔うため)読書等できないので英語か音楽家何かしら聞こうかということで iPod shuffle を探してみたのですが見つからず。いや、探した所が悪かったんですが、想像通り大学生協にも(帰宅途中で寄り道した)イオン内ベスト電器にもありませんでした。iPodに拘らなければあったんですが、一時的な用途になりそうなので高いもの買う気がしないし。ということで明日はもう少しまともな場所に寄り道する予定。

大学生協でたまにドライカレーな弁当が出ているのですが、デフォルトメニューにして欲しいぐらいには良いです。もしくはわざわざ「夏の」と付けるぐらいなら四季折々の野菜に変更するとかしていいから、ドライカレーは出し続けて欲しい。通常カレーよりこっちの方が美味しいし。

複雑研全体ゼミは今日で終了です。プレゼン勉強としてはある程度機能していると思うのだけど、勉強会としてはうまく機能していないという印象。次年度へ向けた申し送り事項としては下記あたりかしら。全てをやるのは無理だとしても、もう少し一般的な輪読スタイルを目指そう。

  • 輪読の目的周知。
  • 個々に独立して論文を読む(紹介する)のではなく、特定テーマの俯瞰を目指す(なら教科書かそれ相当の論文集(解説記事等含む)をこちらで準備する。
  • or 問題をどのようにモデル化しているかを数式含めて解釈させる。

以下は複雑研全体ゼミを終えての補足記事です。


画像処理系メンバー(遠藤研:新垣健史、遠藤研:大城裕二、赤嶺研:濱聡子)

>モーションキャプチャ、ハンドトラッキング

全体の流れとしては [1] をベースにハンドトラッキング技術を中心とした紹介と、低コストという意味で使いやすい手法(システム)の提案という話で整理していたかと思います。各種数式の説明が変数説明程度で終わっていたのは少し残念。「どういう問題に対して、何に注目し(=何を削ぎ落とし)、どういうモデルに落とし込んでいるのか」という部分は数式を噛み砕かないとイメージ止まりになってしまうので。

(そこの説明があるとモデル自体の勉強になるだけでなく、具体的な落とし込み方が分かると考え方の一つとして参考にもなるので、輪読的にはそこまでやって欲しかったです。他グループも。ということでこれは次年度に向けての反省点だな>私)

[1] Robert Y. Wang , Jovan Popovic, Real-Time Hand-Tracking with a Color Glove, ACM SIGGRAPH 2009

以下、[1] を参考文献として引用してる文献(=より新しい論文)についていくつか紹介してみます。

[2] では粒子フィルタ(Particle Filter, PF)をベースとした「重力」の概念を組み込んだ Gravity Optimised PF (GOPF) を提案し、ハンドトラッキングで性能評価しているらしい。粒子数を1000から20まで減らしてもPFと比べて良いとか、フレーム数あたりのエラーピクセル数では、PF+100粒子並みの精度をGOPF+10粒子で実現できてるらしい。

[3] はどちらかというと応用よりの話っぽい。イントロダクションぐらいしか読めないので詳細不明なので中身的にどのぐらいの話なのか分かりません(Kinectは使うらしい)が、「バーチャル空間と実空間とをどう結びつけるか」という話をしているらしいので、そっち方面に興味があるなら取得して読んでみると良いかも。

[4] はタイトル通りですが、vision-based marker less なハンドトラッキングについてのサーベイ論文のようです。ダウンロードに時間がかかるため眺めてもいませんが、参考まで。

[2] Gravity Optimised Particle Filter for Hand Tracking, Pattern Recognition, 2013
[3] Virtual Effort: An Advanced User Interface that Combines Various Visual Information with a Kinetic System for Virtual Object Manipulations, Applied Mechanics and Materials, 2013
[4] A Survey of Vision-Based Markerless Hand Tracking Approaches

車を運転できなくなってから歩数が10倍ぐらいに増えてる気がする

火曜日, 7月 23rd, 2013

今日は昼過ぎに公務員宿舎を覗かせてもらい、問題無さそう(あっても許容レベル)なので素直にそこにする決心をしました。あちこち修繕が必要なため入居できるのは8月末ぐらいになるかもという話なので、後1ヶ月強ぐらいはバスに乗るっぽい。昼食で多少遠くても歩かざるを得ない(誰か誘っても良いんだけど)こともあってあちこち歩いてます。昨日は坦々亭まで歩いて行ったし。お陰で汗かきまくりなので職場に肌着の着替えが必須。というかここ最近毎日着替えてるから「持って行ってそのまま持ち帰ってる」のであって、実質的には置いてる訳ではないか。

昨日は京大のデザイン学連携プログラム関連での会食があって久しぶりにブログをさぼりました。2日間という中途半端な期間ではお祭り騒ぎぐらいにしかならないんじゃないかと思ってましたが、あれこれ身に染みる指摘も頂きつつ、そのままテーマにしても良さそうなorこれらを叩き台として使えそうなアイデアもあれこれ提案頂けました。あやふやな問題設定からそこまで導くこと自体が一種のデザインだよね。

NAL研ゼミではNNでのDeep Learningを勉強中の玉城くんが少し時間かかったぐらいか。今は人工知能学会誌の連載解説deeplearning.netで紹介されてる論文読みつつ、DeepLearnToolboxのソースを読みながら勉強中。まだ事前学習段階ですが、「イメージ」から「より具体的な処理の理解」に近づいている感覚は出てきています。

帰りが遅くなったのでnokoto cafeで晩ご飯食べてから帰ろうと思いきや閉まってて涙目。客がいなかったから早めに閉めたのかしら。

以下は昨日の複雑研全体ゼミを終えての補足記事です。


自然言語系 (松田昇悟, 福里宏晃)

全体の流れとしては [1] の目次にそった自然言語処理の全体像を紹介しつつ、各自が強い興味を持っている形態素解析と文脈処理について具体例を示しつつ目標と手法の概要を説明するというものだったかと思います。

[1] 自然言語処理の基礎, 奥村学, コロナ社, 2010

>形態素解析

形態素解析では一般に辞書や学習コーパスを用い、そこに含まれる形態素(既知語)を用いて構築した格子ラティスから「最適な系列」を選択することで分割する。一方で、その辞書や学習コーパスに含まれていない形態素(未知語)があるとその格子ラティスを適切に生成できなかったり、できたとしても最適な系列を選択できないことが多くなるので「辞書や学習コーパス(語彙資源)を充実させる」というような話でした。

このように語彙資源を充実させる手法はオフライン手法(バッチ手法)と呼ばれており[2]、形態素解析する前に予め構築しておく必要がありますが、漏れなく全ての候補ノード(ラティスのノード)を生成するのは困難なため、形態素を単位としたノードと、文字列を単位としたノードとする手法を組み合わせた方法も提案されているらしい。いずれにせよ、語彙資源を更新し続ける必要があるため、未知語への完全な対応は困難と主張する人もいます[3]。

一方、解析実行時に既知語とともに未知語を同定するアプローチはオンライン手法(リアルタイム手法)と呼ばれており、特に未知語に対しての頑健な解析精度を目指している [2] 人らはこちらを選択していることが多いようです。

「辞書の圧縮」という話については、[4] やそこで紹介されてる簡潔データ構造(succinct data structure)である Rank/Select辞書(Rank/Select Dictionary)、分岐が無いノードを圧縮したトライであるパトリシア(Patricia)、文字列の接尾辞へのポインタを配列の格納して間接ソートしたデータ構造である接尾辞配列(suffix array)や、それらと比較している事例を調べてみると良さそうです。


>文脈解析

文脈処理は適用対象自体に様々なゴールを見据えていますが、その根っこにあるコアな共通部分は「1文に記述されている情報だけでその文の意味を理解するのではなく、それ以前の文も含めた文脈(context)も踏まえた上で文の解析をすること[5]。

文字列そのものを処理対象とした事例については [5] が参考になりますが、それ以外も処理対象に含めた事例もあります。

以下は全て「対話」における例ですが、例えば市川先生 [6,7] は「言語を発話する際に生じる情報プロソディ[8]の有無が内容理解度に大きく影響していることを多数の事例で紹介しています。文脈というよりは意味や意図に近い話ではありますが、文脈理解度には何が影響するのかというメタトピック的には参考になりそうです。

別の事例として「場の言語学(や進化言語学)[9]」という切り口で研究しているグループからは、どのようにインタラクションが発生し、言語へと発達したのかという点について「自己の二重性(卵モデル)[9]」や「ミラーニューロン[10]」等をキーワードに説明を試みているようです。

文字列を対象とした代名詞/照応詞/ゼロ代名詞等々の解決は勿論必要ですが、何かしら前提知識として「対話言語」の事例で述べられてるような事柄を組み込むストーリーも考えられるかもしれません。(何も具体案考えずに書いてます)

[複雑研全体ゼミ補足記事] 7/8, シミュレーション系(強化学習、協調行動)

月曜日, 7月 8th, 2013

今日は大学院入試(推薦)とオープンキャンパスの事務処理。オープンキャンパスはバイト代支払うための手続きがあるので、期日内に提出お願いします。あと、各部屋の清掃&綺麗に保つのも勿論ヨロシク!(普段からね!)

午後は(私のせいで先週休みになったので)久しぶりに全体ゼミ2巡目の続きです。ちょっと「独立した論文紹介」に近くなっちゃってるのが勿体無い。

以下は複雑研全体ゼミを終えての補足記事です。


シミュレーション系 (稲福政樹, 山田義貴, 清水隆寛, 新垣隆伍)

>強化学習、逆強化学習

全体の流れとしては「強化学習を用いたシミュレーション[1,2]」を主題に、どのような背景で問題設計・シミュレーション検証しているかという点から紹介していくというよう話だったかと思います。(他の聴講者が)強化学習自体についての理解できる程度の基礎説明が殆どなかったこともあり、「何かしら学習させようとしてるor学習を用いたシミュレーションなのね」ぐらいの気持ちでの討論に終始してしまった(≒独立した論文紹介に近い)のは勿体無かったかも。

一方で、グループ名にもしている「シミュレーション」を中心に据えるのだとすると、[3]みたいにモデルやツール、方法論あたりからストーリーを練るのも一つの手だったかもしれません。

[1] 強化学習エージェントによる協調行動とコミュニケーションの創発, 情報処理学会論文誌. 数理モデル化と応用, 2007
[2] 逆強化学習による複数均衡化での均衡収束の実現, JSAI2012
[3] シミュレーション, 情報工学科講義

以下ではもう一つのキーワード「協調行動の創発」に因んだシミュレーションについて紹介してみます。

[4]は、一過性に生じる強い感情(=情動)の概念を導入したいくつかのモデルを示しつつ、「自身に対する不快を避ける利他的な判断を、恐怖情動の機能としてエージェントの意思決定に組み込」んだシミュレーションを通して「情動と社会的行動の関係性」を検証するという話らしい。
[5]は、軍隊アリの行動規範解明を目的としてシミュレーション上で協調行動再現をしながら理解を深めるというスタンスの論文らしい。
[6]は、自己位置推定のために創発現象を利用するという話で、ロボカップ等で必要となるターゲット包囲行動を題材にシミュレーションしているらしい。

[4] 強化学習と情動学習に基づく意思決定法:利己的な判断による協調行動の創発, 知能と情報, 2012
[5] 軍隊アリの生態シミュレーションを用いた協調行動の創発, 東京大学大学院, 2010
[6] 創発特性を利用した自己位置推定-ターゲット包囲行動の場合, 知能と情報, 2010