Posts Tagged ‘イベントレポート’

新配属学生への研究テーマの種提供/「ロボットは東大に入れるか」キックオフシンポジウムの紹介+α

火曜日, 2月 14th, 2012

複雑系研究室(遠藤研・山田研・當間研・赤嶺研)新配属学生(現3年次)への研究テーマの種提供を目的として、「ロボットは東大に入れるか」キックオフシンポジウムの紹介+αをしました。

資料:PDF

これから研究室に入って勉強していくという学生がメインターゲットだったので、一つずつ細かい話をするというよりは、こういう観点もあるというのをあれこれ紹介することをメインとしつつ、気になったことをどう調べていけば良いかというtipsを加えた資料になってます。

最後のリファレンスや引用した文章もそうですが、基本的に主観が多分に含まれているので話半分で聞いてくれたらなと思いつつ、後で気になった時に参考文献を探す糸口になれば嬉しい。基本的には、


ぐらいの気持ちで耳を傾けてもらえれば十分。

イベントそのものの概要としては参加記録1の記事一覧にも上げている森山和道の「ヒトと機械の境界面」が読みやすいんじゃないかと想像。

関連記事:

未踏ユース/スーパークリエータにまつわる座談会

水曜日, 2月 8th, 2012

 大学サイトの「アクティブ学生」として記事が掲載された通り、与儀さんがIPA主催の未踏ユースにてスーパークリエータに認定されました(参考リンク1)! また、琉球新報さんにも記事にして頂けました(参考リンク10)!

【授賞式の様子】

 未踏プロジェクト(正式には「未踏IT人材発掘・育成事業」)は、年と共に少しずつ変化して行っていますので、詳細はオフィシャルサイトで確認してもらうとして、与儀さんは「動的にフォントを生成/編集するためのフレームワークの開発」というテーマで2010年度・未踏ユースに採択され、首藤一幸PMによる指導のもとでソフトウェア開発を行いました(参考リンク2)。

 以下、2011年度採択に挑戦したものの落選してしまった山内一騎くん(工学部情報工学科4年次)を聞き手に、与儀さんとの対談形式で事業を通したプロジェクトの様子等について紹介します。

<目次>


何したの?

聞き手・山内(以下、山内):まずはスーパークリエータ認定おめでとうございます!
話し手・与儀(以下、与儀):ありがとうございます!

山内:いきなりですが、未踏ユースでは国からお金をもらいながらソフトウェア開発できるそうで、最高180万ぐらいの費用を頂けるそうですね。ぶっちゃけいくら貰えたんですか?
与儀:途中で進展できない時期もあったのですが、合計で(検閲)ぐらいです。あれ、何か勝手に書き換えられてしまいますね。察してくださいw

山内:気になる人は個別に突撃してもらうということでw

山内:では気を取り直して、今回、未踏ユースに採択された期間内における活動が認められスーパークリエータ認定を受けたということですが、この「動的にフォントを生成/編集するためのフレームワークの開発」というプロジェクトはどのようなものなんでしょうか?
与儀:「動的に」とか言うと難しく聞こえるかもしれませんが、自分好みのフォントを誰でも簡単に作れるようにするためのソフトを開発するというのが目的です。そもそもの出発点というか切っ掛けになったものは、このIPAの事業に関する説明会(参考リンク3)に参加した際に紹介してもらったOBの岩崎さんの提案である「チャットシステムが味気ない。もっと書き手の気持ちを伝えたい」というものでした。岩崎さんの例では文字チャットにおいて「筆圧」等を加味して文字サイズを大小変化させるというものだったのですが、私は「その時々の感情に応じてフォント自体を作りたい」と考えました。例えば悲しい時は薄くかすれたフォント、楽しい時はポップ調のような形で自分好みのフォントを作ることができれば、書き手の気持ちを伝える手段が増える、つまり表現の幅が広がります。

山内:書き手の気持ちを文字内容だけではなくフォントの形でも伝えることができる、ということでしょうか。
与儀:そうです。例えば、ニコニコ動画では視聴者のコメントが埋め込まれた形で動画が再生されますが、基本的にはコメントの色を程度の変化しかありません。これがコメント内容に応じてフォントまでが変わると、例えばこういう感じに見えると、どうでしょう。

ニコニコ動画でのイメージ図

【ニコニコ動画でのイメージ図】

山内:こ、これはw
与儀:良いリアクションありがとうございますw
与儀:まだここまでは辿り着いていないのですが、こういうゴールを目指す第一歩として「好みのフォント」を作りやすくするためのソフトウェアの開発に着手した、というのが今回のプロジェクトです。

山内:なるほど、さらに先を見据えての開発なんですね。今後の発展も楽しみです!


育成事業らしいけど、何かレクチャー受けるの?

山内:次に、プロジェクトに関連して違う視点、「育成事業」という点についてお聞きしたいのですが、一般的な応募を募るケースでは「提案者が開発するだけ」のように思います。それに対して、今回の未踏ユースでは「プロジェクトマネージャのもとで発掘育成する」ということですが、具体的にプロジェクトはどのように進んだのでしょうか?
与儀:実はプロジェクトが採択される前からいろいろと指導頂く形になりました。応募したのが9月末で、書類審査を通過したのが10月中旬です。その後にプレゼンを含んだインタビュー形式での審査が10月下旬にあり、採択内定を頂いたのが12月中旬頃だったと思います。この内定を頂いてから実際の契約に至るまでの1ヶ月ぐらいの間に「プロジェクト期間中における具体的なゴールをどう設定するのか」「ソフトウェアとして実現するためのアイデアは練っているのか」「どのようなスケジュールで開発するのか」といった様々な視点からのアドバイスを頂き、少しずつプロジェクトを具体化するという作業を進めていました。

山内:事務方さんというか進捗確認的なもので済ませるだけじゃなく、かなり開発寄りの具体的な項目について話合うことまでされているですね。言ってみれば上司として部下の成功を導くというような形での共同作業といった所でしょうか。
与儀:そう考えてもらった方が分かりやすいと思います。
与儀:正式な契約を交わしたのが1月で、それからは討論だけではなく、開発を進める上でのサポートをいろいろとして頂けました。例えば、フォントをどう作るかということが焦点の一つですが、これに対して具体的なアイデアを考えていく際の討論だけではなく、フォントを販売している株式会社モリサワさんの中の人と話す場をセッティングして頂けました。

山内:それは羨ましいですね!
与儀:他にも、首藤PMが関わっているプロジェクトメンバやOBOG等未踏関係者の集まる場での討論や、合宿などを用意して頂け、いろんな分野、いろんな視点からの意見を交換し合える場を提供して頂け、交流の幅が広がったのがとても嬉しかったです。これが切っ掛けかもしれませんが、県内でもブロッコ・デリ・アーキテクツ有限会社さんとデザインについて話を聞くよう行動する等、これまで以上に「プロジェクトを成功させるために行動する」ことを心がけて行動することの大切さを体感することができました。

山内ソフトウェア開発といった技術面だけでなく、視野や交流の幅を広げるといった間接的なサポートを通して得られるものがあったのですね。僕は与儀さんの講演会(参考リンク4)に参加してやる気になり、今回初応募して落ちてしまったのですが、とても悔しいです(笑) 
与儀:「未踏」では自分の夢を持って具体的に行動している人が大勢いるのですが、大勢居ることで「専門分野」という垣根を越えた話題やアグレッシブな様子が身近に溢れていて、それが交じり合って行くのがとても面白いです! 山内くんも、その一員になれるよう何度でもチャレンジしてください(笑)

山内:はい、頑張ります!


応募の時に考えて欲しいこと?

与儀:ちなみに、これは首藤PMから言われたことでもあるのですが、一人のプロジェクトとして頑張る必要はないです。公募要領にも書かれてますが、複数人でのグループによるプロジェクトとしての提案で構いませんし、実際そのようなケースが少なくないようです。一人だとどうしても進展が見え難い時期等で精神的にキツいですが、それを和らげる意味でも共同作業するような形が望ましいという意見を頂きました。特に私の場合だと、修士論文とは関係ないテーマで提案したこともあって、どちらともやりたいテーマなんですが時間が有限なので、両立にとても苦労しています。目下修士論文作成マシーンと化しています(遠い目)。

山内:僕も卒業論文書いてる最中なので、そこはお互い頑張りましょうw
山内:話を元に戻してプロジェクトの流れについてですが、1月に契約が済んでから討論だけでなくいろんな交流イベントを通しながらの開発となったようですが、これはいつ頃まで続いたのでしょうか?
与儀:契約期間という意味では8月中旬頃で最終報告までを終えました。ただし、その後も9月上旬頃までは書類の書き直し等を含めたやり取りが続いていましたので、実質的な期間で言うと約10ヶ月間がプロジェクト期間と考えて良いと思います。

山内:10ヶ月間というと、フルに活動するとして40週間ですか。単純計算で1日8時間x週5日x40週=1600時間。安いバイトで換算すると、、というのは辞めておきましょうw
与儀:(^-^)

山内:最終的な成果物というのでしょうか、プロジェクトを終了する際に求められるものはどういうものなんでしょうか?
与儀:基本的には日々の作業日誌と、成果としてなるべく目に見える形でのデモを用意すること、デモを踏まえたプレゼンテーションや概要書を作成すること、といった所です。

山内:開発したソフトウェアそのものというかプログラムは提出しないのですか?
与儀:基本的に開発物はクリエータのものです。OBOGを見ていると多くのケースではWeb上で公開しているようですが、公開することも含めてクリエータが自分で決めることができます。

山内:では、商用として売り出すこともできるんですか?
与儀:自由です!

山内:うおおおおお!それは妄想が膨らみますね!!ww
与儀:落ち着けwww
山内:すいませんw

山内:そろそろ最後の質問、今回のスーパークリエータ認定を受けての気持ちや、この記事を読んでくれているであろう後輩に向けての言葉を頂けますか?
与儀:まさか自分のプロジェクトが選ばれるとは思ってなかったので驚きました。でも8ヶ月間の労苦と絶望感が報われたようで大変嬉しいです!こんな自分でもなんとかやっていけたので、つまりは誰でもやっていけると思います(笑) やりたい気持ちとアイデアがあれば技術はあとから身につくし、そのための最大限のサポートもしてもらえます。それに未踏は刺激に溢れているので、モチベーションは上がりまくりです。たくさんの面白い人とも出会えるし、面白い話も聞けるし、とにかく未踏の一番のウリはそんな出会いだと思います。何かやってみたい事があるなら、まず挑戦してみてはどうでしょう。

山内:ありがとうございます!
山内:長丁場になりましたが、今回は修論過渡期という多忙な時期にお時間頂き誠にありがとうございました!
与儀:ありがとうございました!


最後に

 以上、當間による捏造対談でお送りしました。(本人達に承諾は得ていますよ!)
未踏プロジェクトに限った話ではなく学業/研究/趣味何でも良いですが、学生さんが学外にも目を向けて活動する切っ掛けになれば良いなとの思いで、記録を兼ねた対談形式の記事として作成してみました。

 なお、この記事によると、未踏の公募(受付期間:2/7〜4/10)が始まっているようです。

 ちなみに、与儀さんは「21世紀グローバルプログラム(参考リンク5)」で入学してきた学生の一人です。今回採択されたプロジェクトは卒業論文や修士論文とは無関係の個人的なプロジェクトとして応募し、採択され、努力した結果が評価されました。21世紀グローバルプログラムが廃止(参考リンク6)になったのはとても残念ですが、「学力、意欲、豊かな個性を兼ね備えた優れた学生」として入学し、学術研究活動だけでなく学外プロジェクトにもチャレンジし、その活動が高く評価されたことはとても喜ばしいことです!


参考リンク一覧

参考リンク1:
 「未踏IT人材発掘・育成事業」スーパークリエータの認定について~採択、支援した34件の中からスーパークリエータ 15名を認定~
 http://www.ipa.go.jp/about/press/20111215.html

参考リンク2:
 2011年度 未踏IT人材発掘・育成事業 公募結果
 http://www.ipa.go.jp/jinzai/mitou/koubokekka_index.html

参考リンク3:
 未踏IT人材発掘・育成事業説明会(9/4 13:30-15:30)
 https://ie.u-ryukyu.ac.jp/blog/2010/08/26/未踏it人材発掘・育成事業説明会94-1330-1530/

参考リンク4:
 未踏にチャレンジしてみた琉大院生による紹介と中間報告 講演会のお知らせ
 https://ie.u-ryukyu.ac.jp/blog/2011/01/29/「未踏にチャレンジしてみた琉大院生による紹介/

参考リンク5:
 琉球大学21世紀グローバルプログラム
 http://www.u-ryukyu.ac.jp/admission/nyushi/guide2007/p08.html

参考リンク6:
 琉球大学 学内ニュース 2010年7月号(21世紀グローバルプログラムの廃止)
 http://www.u-ryukyu.ac.jp/univ_info/inter_news/2010_jul.html

参考リンク7:
 情報処理推進機構:未踏:未踏IT人材発掘・育成事業
 http://www.ipa.go.jp/jinzai/mitou/

参考リンク8:
 「2012年度未踏IT人材発掘・育成事業クリエータ委託契約」に係る企画競争
 http://www.ipa.go.jp/about/kobo/20120207/index.html

参考リンク9:
 リンク:「2012年度未踏IT人材発掘・育成事業クリエータ委託契約」に係る企画競争
 http://d.hatena.ne.jp/next49/20120207/p3

参考リンク10:
 リンク:与儀さん(琉大大学院)県内初認定 スーパークリエータ(琉球新報)
 http://ryukyushimpo.jp/news/storyid-187430-storytopic-7.html

「ロボットは東大に入れるか」キックオフシンポジウム参加記録その2

木曜日, 12月 15th, 2011

昨日の記事では第1部にしか触れることできなかったので、忘れる前に第2部についてのレポートです。

人工知能やロボットといったテーマについて研究者らをインタビューしていたらこんなことになったという、小説家の瀬名さんによる軽快な司会裁きでの進行となりました。いろんな種から膨らませつつ種同士の絡み合う様子まで含めてとても面白かったのですが、もう少しテーマ絞って時間くぎって討論的に深められるとベターだったかなという上から目線での感想になったり(ぉぃ


>瀬名さんからの最初のお題
(1)これまでの題材と異なる、東大入試ならではの面白さは何か。
(2)東大入試に取り組むことでどういうブレイクスルーが起き、それがどのような変化をもたらすか。
(3)ロボットで解けるとした時、教育はどうあるべきか。

これらの題材を出発点として様々な主張/期待といった話が膨らんでいったのですが、kosuke64さんによる記録に詳しいので、ここでは個人的に興味深かった点について整理する形でメモを残しておきたいと思います。

メモの都合上、それらしいことを話されていた先生方の名前を付けていますが、私の解釈なので間違ってたらごめんなさい。

ここでは2つのトピック、
 ・論点1:必要な表象を全て記述できるのか?
 ・論点2:情報爆発への対峙の仕方に「常識」で絞り込む?
について整理してみました。
どちらも問題提示として重要な issue があるんだという意味での紹介であって、それらをどう解決するのかについては「やってみないと分からない」という立場での紹介です。こういう問題に私自身立ち向かおうという意思表明を兼ねて。



>論点1:必要な表象を全て記述できるのか?

松原先生:  チェスも最初はとても人間らしさを強く含んだ問題だと思っていた。今でも  そういう部分はあると感じているが、一度「盤面評価」等の形で記述できて  しまうと後は計算機パワーの問題が主要因になるようになってしまった。高  速化/効率化等まだまだ議論の余地は多くあるが、計算機パワーでなんとか  なってしまいそうな状況。それに対し、東大入試で求められる多様な常識は、  それをどう記述すれば良いのかすら分からない段階。 新井先生:  細分化されたことで意識にも登らなくなっている観点やタスクが数多く見逃  されているはず。それを効果的に見える化できるように、適度な粒度・サイ  ズに分割しやすい題材として東大入試を選んだ。これをオープンな開発基盤  として提供する事でオールジャパンのアンブレラとして他分野の融合を図り  たい。センター入試に5年、東大入試に10年と区切りを付けて遮二無二取り  組むことで shake に繋がると思う。 安西先生:  確かにやってみないと分からないことはあるので、これまでになかった新た  なアイデアがでてくることもあるとは思う。いずれ。でも、これまでも様々  な表象を記述する議論であったり、データベースとして格納するといった議  論はずーーーっと昔から数多くやられているが一向に解決する様子が見えな  い。ロジックだと記述論理等があるがそれで本当に全て記述できるのか。(  経験から学ぶ)フィードバック系だと様々な系をくっ付けることは可能だが  それをどう接続するのが適切なのか。ここまで死屍累々な状況を鑑みると、  オールジャパンで取り組んでも全部が全部ダメでしたで終わってしまったり  しないか。 新井先生:  そこまで正面から対峙する必要(全ての表象を記述する必要)があるのかと  いう観点もある。例えば、学生を見ていると「経験から学び、抽象化してそ  れを次に活かしているとは*思えない*事例」も少なくない。

>論点2:情報爆発への対峙の仕方に「常識」で絞り込む?

安西先生:  初めて対峙する際、例えば初めてある問題について学ぶという時点では丁寧  に文章を噛み砕いていくしかない。それこそ自然言語処理のように。だけど  慣れてくるにつれてキーを簡単に見つけ出せるようになる。要約みたいなも  のかもしれない。そこに研究テーマはあるのか。 新井先生:  昨今どこにでも情報爆発は見られてて、それに対する解決策は「気の聞いた  ように処理してあげる」しかないように思う。今の若い世代の人らは体感的  にそういう問題意識を持っていて、これを解決しない事にはこれ以上の進展  が無いだろうという直感がある。身体性が持つある種の感性や感覚が渾然一  体となっている常識を解決すること自体が求められている。 安西先生:  研究としてやるとすると、コンテキスチュアルからキーを見つけるなりして、  そこから検索に繋げるような感じかもしれないが、それはどう実現するのか。

「ロボットは東大に入れるか」キックオフシンポジウムへの参加記録

木曜日, 12月 15th, 2011

ロボットは東大に入れるかのキックオフシンポジウム(公開講演会)に参加してきました。備忘録としてのメモや考えさせられたことのメモです。

参加するにあたって個人的に考えていたこととしては、(1)用紙上の領域認識(どこが問題文で、図表があるならどういう区切りになっててどう対応しているかの識別等)、(2)領域毎の解釈(問題理解、問うてる対象推定、図表の言い表している内容理解等)、(3)手持ち材料を用いた戦略立案(どのように解くかを検討・推定等)、(4)最適戦略に基づいたor各種戦略に基づいた回答毎に妥当性判断、といったサブ問題に分割されるのかなと想像しての参加でした。

シンポジウムで得た情報から判断する限りでは、ある程度問題の分割方法を想定している部分はある(最終的には評価用プラットフォームとしてオープンなAPIを提供するっぽい)ようで、個別に詳細細分化して研究されている事柄を融合して総合的に取り組むことを促進しやすい触媒としての場を目指すというような趣旨と理解しました。実際、NTCIR RITEのような形でコーパスと開発用API(?)を公開しつつあるようですし。そういう意味では参加する前に想像してたことと大差がありませんでした。

一方参加して気づかされた点もあり、「東大入試」を選択しているのはただの事例だと思っていたのですが、他大学ではダメという主張らしい。選択した理由は、(a)他大学のようにひねくれた問題が少なく、比較的素直な問題であること。(b)一般的な常識があれば誤読することがないようにコントロールされた日本語で記述されていること。といったことで、東大入試を選択したらしい。この「細分化されまくってる多分野の融合」と「一般的な常識の実現」というトピックが一つの主題になるらしい。問題細分化については、取り組みやすくなるという一方で見逃してしまう現象/知見なりが多々あると思うので、積極的に融合できるように「そのための適度なサイズのタスク」というのをうまく設計しようというのは良い試みだと思います。

飛び火した話題としては、入試を含めた教育の在り方なんて話題もありましたが、そこら辺は個人的にはあまり興味ないかな。「人間らしさ」という点では興味はありますが、コンピュータが実現できたら人間らしさが危うくなるとかいう訳じゃないし。

あと、前々から思ってたことなんですが、いわゆる記号論なりで事象を表記するというアプローチ自体が妥当なのかというニュアンスの話題も出てきてたのが嬉しかったです。記述できないことは実装できない、という主張自体に個人的には疑いを持っているので、何かしら新しい観点を主張できるようになりたいものです。

以下はプログラム毎の備忘録用にメモった内容です。
第2部はバッテリー切れのため手書きしてたのですが、後でサマリする予定です。
誤解も多分に含まれると思うので、ご注意ください。
→別記事として書きました。


目次
主催者挨拶 (坂内正夫・NII 所長)
 <第一部> 講演会
基調講演 (松原仁・公立はこだて未来大学) 人工知能のグランドチャレンジ -チェス、サッカー、クイズから東大入試へ-
「ロボットは東大に入れるか」プロジェクト概要説明(新井紀子・NII)
「人工知能にとってなぜ大学入試はチャレンジングか」(稲邑哲也・NII)
「知識を問う問題にコンピュータはどれだけ答えられるか」(宮尾祐介・NII)
 <第二部> パネルディスカッション
・「知性と知識のはざまで」司会 瀬名秀明(作家)(後でサマリ予定)
他の参加記事


主催者挨拶 (坂内正夫・NII 所長)

情報に関わる問題はもう既に解決し尽くした?
GoogleやYahoo!に任せれば解決できるのか?
ブレイクスルーを起こす難問として何があるか。
研究戦略室:「ロボットは東大に入れるか」
 Watsonの2番煎じ?
 どうブレイクダウンするか。どのような難問で構成されているのか。
  面白い切り口(ブレイクスルーに繋がる種を含んでいる)という触感。
  プレ実験的には最高で58点程度取れたグループもある。

物議を醸すようならむしろ醸したい。
 コンピュータでできること/人間の知性に近づくこと/得意不得意
  e.g., もし、東大はいれるようになるなら、
  そういう入試問題で選抜して良いのか。人間にしかできない問題?

情報学研究所
 オープンプラットフォームとしての役割
  大学/企業/etc.の垣根を越えて団結して取り組むためのアクション。
  アイデアを出すことも大切だが、目標を定め若い/若々しい人材を引きつける。
  共通の問題をアカデミアが掲げ、企業らも巻き込んでその問題に取り組む。


<第一部> 講演会

基調講演 (松原仁・公立はこだて未来大学) 人工知能のグランドチャレンジ -チェス、サッカー、クイズから東大入試へ-

AI
 人工物に人間のような知能を持たせる(e.g., 鉄腕アトムの実現)
グランドチャレンジ
 それ自体は直接役に立たなくても、象徴的な目標。
 その達成を目指すことで大きな技術的進歩が期待されるもの。
  e.g., アポロ計画

複数のグランドチャレンジが並行して進んでいる中での「東大入試」の位置付け
チェス(マッカーシー「人工知能のショウジョウバエ」)
 AIで最初のグランドチャレンジ
  →シャノン、チューリング、、、探索手法の技術進展に大きく寄与
  1950,60年代:最初は「人間の真似(見込みの高い少数の手だけを読む)」方式
   将棋の羽生さん等専門家は「直感で数手が思い浮かび、それを検討する」
  1970年代:「力任せ」方式(ルール上指せる手は原則全部読む)
  1980年代:スーパーコンピュータ:チェス専用コンピュータ
  1986年:CMU Deep Thought 1秒間に70万手読む→プロレベルに
  1989年:IBMプロジェクト開始
  1990年:世界チャンピオンのカスパロフと2戦2敗(大差)。
  1997年:6戦2勝1敗3分け(1秒間に2億手読む。スパコン+専用コンピュータ約500台)
  現在はPCでもコンピュータの方が強い。もうすぐスマートフォンレベルでも?

他のゲーム
 チェッカー:2007年解明(理論的に引き分け)
 オセロ:1997年世界チャンピオンを破る
 将棋:2010年女流プロを破る。世界チャンピオンまで後一歩(数年)。
 囲碁:世界チャンピオンまであと十数年?
  モンテカルロ法でアマ4段程度

サッカー
 チェスに変わるグランドチャレンジとして1990年前後に模索。
  北野編「グランドチャレンジー人工知能の大いなる挑戦ー」。
  この時点ではまだサッカーは出ていなかった。
 1993年頃:サッカーに絞り込む(ロボットJリーグ)
  国際化を指向して「ロボカップ」
 1995年:世界的に構想発表

何故サッカーか
 団体スポーツであること。
 時々刻々と状況が変化すること。
 必ずしも思った通りには進まないこと。
 わからない情報を補う必要があること。
 (難しいながらも)なんとかロボットにチャレンジできそうなこと。
 世界で一番人気のあるスポーツであること。

ロボカップ/レスキュー/アットホーム

クイズ ジョパディ!
 アメリカで数十年続く人気クイズ番組。
  基本的には知識を問う問題(自然言語)。
 回答は単語(東大入試よりやさしそう)
 強いチャンピオンは英雄扱いされている
 IBMはディープブルーに続くグランドチャレンジとしてジョパディ!制覇を目指した。
 自然言語処理、自動検索、ゲーム理論

ロボットは東大に入れるか
 東大入試で合格点を取ることを目指す。
 「人工頭脳」プロジェクトと称している。
 自然言語処理、物理モデル、推論など。
  知識を問う問題よりも推論を問う問題が多い?
 クイズよりはかなり難しい。
 東大問題は比較的素直なのでコンピュータ向きかもしれない。(京大は癖があるのでその次?)
 いつか本当のロボットが人間と一緒に受験して欲しい。
  妄想:HB鉛筆を折らずに書けるか/落とした時に手を挙げて,,,
 成功すると
  (1)人工知能の進歩が目に見えて分かる
  (2)事務のある程度がコンピュータで代行できる
  (3)入試問題の難しさの基準ができる
  (4)東大入試の幻想が無くなる?


「ロボットは東大に入れるか」プロジェクト概要説明(新井紀子・NII)

目標
 実際のテスト用紙→データ化(アノテーション付き)→ロボットへの入力
目的
 「東大に入ること=究極の知能」*ではない*。
 素材として興味深い。
 口頭試問ではなく、テキスト、画像、音声によって提示される。
 人とのインタラクションは無い。
 試験問題はなるべく誤読が生じないように、コントロールされた日本語で記述されている。
  Web上のテキスト等とは異なる性質。
 試験問題には必ず正解がある。
  数学理科だけでなく倫理社会国語でも正解がある。
   e.g., 心の葛藤を問う問題でも「合意できる正解」がある。
 健全な常識と論理を持つ18歳であれば、
 コントロールされた日本語で書かれれば解けることが期待されている。
  *比較するための材料として使われる要因。

特性/特質
 膨大なデータがあれば(投入できれば)解決できる問題でもない。
 (問題を解く)系があれば十分というタイプの問題でもない。
 現状:人間の平均点にも遠く及ばない。
 何が難しいのか。
  知識/常識/演繹の中でも「常識」が厄介。
  記憶に格納されてる知識や演繹だけでは不十分。
  【身体性が持つある種の感性や感覚、それが醸し出す常識が渾然一体となっている】

科学に提供されている言語:数学の言語(解析、代数、確率統計、論理、確率統計、、)
 この言語で書けるならコンピュータに搭載できる。
 逆に書けないなら、搭載できない。
 常識や身体性から来る感覚をうまく記述する方法を見つける必要がある。
 科目:分割可能性
  国語:論説文読解/小節読解/詩歌/古文/etc.

問題の例
 英語
  ある一家の一日。父と娘に関する語りを説明。それに相応しいイラストを選択する問題。
  何故「イラストによって表象され、それを理解できる」のか。

従来のアプローチ:ターゲットを絞り込む
 分野を細分化して行くことに繋がったが、そろそろ融合する必要が無いか。
 融合に必要なのは「しましょう」というかけ声ではなく、
 適切な問題設定が提供されること。
 「東大入試」には適切なサイズの問題が渾然一体となった形で提供されている。

問題の一部は解けてきている部分もある。
 口述を聞き取る能力等。
 また、適切な論理記述に変換さえできれば多くの問題が解けると言われている。
 ただし、普通の日本語で書かれた文章をどうやって変換するかはまだ分からない。

問い:「優秀さ」はプログラミング可能か?
「東大入試に迫るコンピュータから見えてくるもの」


「人工知能にとってなぜ大学入試はチャレンジングか」(稲邑哲也・NII)

自己紹介:Human Robotインタラクション。
人工知能?ロボット?
GOFAI: Good Old Fashioned AI
 閉じた世界でしか通用しない知能。
 反省点
  シンボルの情報処理だけでは実現不可能。
  曖昧であるシンボルの意味・解釈を解決せねばならない。
 新しい潮流
  身体性に根付いた情報処理を!

現状のロボット研究はどこまで成功しているか?
 部分的なタスクに限定すれば成功。
 GOFAIが目標としていた問題には到達できていない。
  曖昧な実世界情報の解釈はある程度可能に。
  高次レベルの知能の層と、身体(センサ/アクチュエータ)の情報処理層との結ぶ橋が無い。
 抽象度の高低と橋渡し
  GOFAI> ??? > Enbodied Robotics
  細分化していく一方。

二つの流れが合流して初めて解ける問題の例
 国際数学・理科教育動向調査(TIMSS)
  定規にバターで固定した豆を用意。片方から温めるとどの順番で豆が落ちるか。
  小学4年理科:正解率日本92%、世界57%
   温めるとバターが溶ける/温められる場所から/etc.

実体験に基づく論理的思考が必要な問題の例
 自転車で転び、袋に入れた食塩をこぼしてしまった。
 集めてビニール袋に戻したが砂や落ち葉も混ざった。
 食塩だけを取り出す方法を順番に書き、その理由も書きなさい。
  教科書に書かれていることの理解には「実体験との接続」が重要。
  「大学入試」への第一歩(?)

単に高得点を取るだけで良いなら
 暗記科目タイプをチョイス。
 が、得点を取る機能ではなく、実世界を理解する知性への挑戦。
  主に物理・地学に集中する方針。

骨太のテーマ
 画像理解と自然言語処理の統合。
  曖昧性解消のための画像理解と自然言語理解の相補的な統合<。
  図と文章からの物理モデルの再構成。
   相補的に統合して考える力。
    画像から得られる意味のグラフ化。
    自然言語から得られる意味のグラフ化。
    双方のグラフ構造が整合性の取れるように解釈を調整。
   古典:SHRDLU(課題点:曖昧な実世界情報の取り扱い/etc.)
 物理現象のモデル化と予測。
  3次元モデルの構築と物理シミュレーションによる将来予測。
   数秒後/数時間後/数年後を予測

非常に難しい問題(あきらめる?)
 記号化されていない情報を用いて論理的な推論を必要とする問題
  月面クレーターの写真、影の大きさ、、、からの推論

実世界の経験に根付いた問題
 「東大入試」からのスタートは、発達順序とは異なるが、こちらからのスタートも必要。


「知識を問う問題にコンピュータはどれだけ答えられるか」(宮尾祐介・NII)

自然言語処理:検索、自動翻訳、対話システム、、
 人間の言葉を理解するコンピュータを作ることを目指す学問。
 入力(言語)と出力(言語)の間にどのような「計算」が行われているのかを明らかにしたい。
 それが「知能」ではないか。
  全ての科目は基本的に自然言語で出題される。

東大入試
 知識を問う問題=教科書や参考書を見れば答えられる問題。
  解説文を読み「最も適当なものを、次のうちから一つ選べ」
  一般的な常識を持っている人なら教科書/参考書を見れば答えられる。
  とはいえ、コンピュータには答えられない。
  得意なのは「丸暗記」であって「記憶」ではない。
   人間に取って意味のある「記憶」とは?
    言葉そのものではなく、言葉が表す内容(=意味、知識)。

言葉から意味、知識へ
 例
  1)犬に風邪薬を飲ませると貧血状態になる
  2)ビーグルが風邪薬を食べたら病気になる
  言葉として一致しているのは「風邪薬」のみ。
  対応関係から「意味が同じ」と考えられるのは何故か。

知識を問う問題とは?
 記憶していることと問われていることが「意味的に一致しているかどうか」を認識する。
 人間は無意識のうちに認識している。
  コンピュータにとっての「知識を問う問題」
   記憶との一致ではなく、意味が一致しているかを問うところがチャレンジング。

含意関係認識
 2つの文の間に含意関係が成り立つかどうかを判定。
 含意関係:ある文が正しいとした時、もう一方の文が正しいと言える。
  自然言語処理での最近のホットトピック。

NTCIR:国立情報学研究所が主催している国際ワークショップ
 検索/翻訳などの情報アクセス技術の評価のための共有データを提供。
 毎回、複数のタスクを設定。
 NTCIR RITE:新聞から抽出した二文について含意関係が成り立つかを判定。
 大学入試にチャレンジ
  IBM東京基礎研究所/CMU/京都大学/東北大学/北陸先端大学院大学/JUCS

データの作り方
 センター試験から問題抽出→選択肢抽出→Wikipedia検索→同単語を含む文を選択
 現状での精度
  IBM-1で精度72.2%、F値62.6%
  平均精度60~70%
   試験の正答率は、20~60%(精度と正答率には高い相関が見られた)
   鉛筆転がし(25%)よりは大分良い

含意関係でできることはごく一部
まだ解けない問題
 倫理の例
  自我同一性を見失っている心理状態についての語り文。
 東大入試問題
  **について2行で説明しなさい。
   マークシート式か記述式かの違いは本質的ではない。
  **について役割や意義を時期区分しながら説明しなさい。
   関連知識の検索。
   出題意図の認識。
   回答方式の指定の認識。
   →関連する知識を統合して回答を作りだす。

「知識を問う問題」の先へ
 自然言語→意味・知識
 出題意図/含意関係/知識検索
 シミュレーション/数式処理・理解/知識統合/時間・空間の推論/常識/因果関係の認識・推論/etc.
  その先には何があるのか。


<第二部> パネルディスカッション

「知性と知識のはざまで」司会 瀬名秀明(作家), 安西祐一郎(日本学術振興会)、喜連川優(東京大学)、松原仁、新井紀子

(後でサマリ予定)


他の参加記事

「ロボットは東大に入れるか。」シンポジウムに行ってきました。 by ロボコンマガジン
シンポジウム「ロボットは東大に入れるか」参加記録 by Uehara-monologue
「ロボットは東大に入れるか」 by ガジェット通信
「ロボットは東大には入れるか」の最初のシンポジウムに行ってきた。 by IHARA Takehiro
「ロボットは東大に入れるか」 by ニコニコニュース
「ロボットは東大に入れるか?」ロボットが東大合格を目指すプロジェクトが発足(国立情報学研究所) by ガラパイア
「目標は東大合格」国立情報学研が人工知能プロジェクト by 朝日新聞社
ロボットは東大に入れるか – 国際的な人工頭脳研究プロジェクトが開始 by マイナビニュース
NII、「人工頭脳プロジェクト」キックオフシンポジウムレポート ~ロボットは東大に入れるか by 森山和道の「ヒトと機械の境界面」
2021年に東京大学“合格”を目指す:チェス、オセロ、クイズの次は「東大」だ!! ――NII「人工頭脳プロジェクト」始動 by @IT MONOist

FIT2011, day3

金曜日, 9月 9th, 2011


FIT2011の最終日が終わりました。

3日目のプログラムはこちら

午前中は一般セッション「数理モデル化と問題解決(2)」で座長として参加。
午後は一般セッション「分類」に参加してきました。

全日程に参加しての印象は、イベント企画の面白さと、一般セッション間での差の大きさ。座長や参加者の頑張り具合で何とかなるケースもありますが、アブストand/or予稿で多少は落とすことを考えても良いんじゃないかな。それなりの落とす理由を付して返却するコストは増えるけど、残念な発表もあるし。発表練習みたいな場所があっても良いと思うけど、それがFITでサポートする部分なのかはちがうんじゃないかな(個人的な考え)。

ちなみに、FITの創設経緯によると「従来の大会の形式にとらわれずに、新しい発表形式を導入し、タイムリーな情報発信、議論・討論の活性化、他領域研究者との交流等の実現」ということで特定領域に拘らず幅広いセッションがあるのは良いのですが、交流という観点では質疑応答と懇親会ぐらい?

勿論自分から動けば良いだけの話なんですが、「多種多様なデータが必然的にクロスするドメインがこれから解決すべき領域」というような話が講演会で出るぐらいなので、もう少し積極的にクロスする(せざるを得ない)ような仕組みがあっても良いんじゃないかなと思います。一部の学会では「学会開催中の盛り上げ方」自体を研究テーマにして実際に試行運用してるケース(下記例参照)もあることだし、情報処理学会でその方向に動けないのはちょっと残念。実施コスト高いので手を挙げる人がいないとやれないというのは分かりますけどね。

 ・例1: WISS2010改革内容のまとめ
 ・例2: 人工知能学会全国大会、インタラクティブセッション特別企画、メンタリングセッション内企画
 ・例3: 自然言語処理学会年次大会、自然言語処理における企業と大学と学生の関係

ということで、以下、参加してきたセッションのまとめです。
青字は質疑応答時のやりとりですが、ニュアンス自体が大分違ってる可能性が高いです。


目次
・一般セッション: 数理モデル化と問題解決(2)
・一般セッション: 分類


数理モデル化と問題解決(2)

座長として参加してたので実際の質疑応答をまとめる時間は殆ど取れず、大まかな発表のメモと事前に予稿を読んで私が感じた点のメモや疑問点になります。いくつかの発表を除いて活発な質疑があったので殆ど質問できなかったけど、量子ビット表現したGAの方はセッション終了後に話を伺うことができました。

問題意識:モンテカルロ碁に対し枝刈りによる計算量削減

 Q: 他手法との比較は?
 Q: ポテンシャルモデルと他物理モデルとの違いは?
 Q: ポテンシャル値の与え方は同一で問題ない?
 Q: 枝刈りにより棋力が上がるのは何故か?
  →誤った手を打つ可能性を除外できた可能性
 Q: 9x9の小さな盤面での評価を行っているが、
  これは19x19でも同様の傾向を示すのか?
  →今後の課題

<事前疑問点>
Q. モンテカルロ碁の計算量削減について他の枝狩り方法等があるようだが、
 それらとの比較考察はしたのか。

Q. モンテカルロ碁の特性そのものを解析したり、近似することが目的?
 (近似が目的なら、どのぐらい計算量落とせた上でどのぐらい近似したか
 を示す際に勝率(棋力)だけでは不十分に思うが、他に特性がうまく近似
 出来ているかを検証する方法は無いだろうか) それとも近似した上でより
 強いモデルの構築等に繋げることが目的?(今後の方向性は?)

Q. 特性の近似具合を図る指標として一致率や含有率を採用しているが、
 これらの指標では「実際には採用しない」部分が多く含まれるが問題無いのか。
 言い換えると、ノーマルのモンテカルロ碁により得られる勝率分布全体を
 近似することが目的なのか、勝率分布を利用して手を選択する部分を
 近似したいのか、どちらなのか。
 例えば、勝率分布としての近似を見る場合、両者とも「合法手」を基準にした
 指標になっているが、その逆は考慮する必要が無いのか。すなわち、
 モンテカルロ碁により合法ではないと判断した所の一致率は見る必要が無いか。

Q. モンテカルロ碁との一致率や含有率の観点からは、その性質上基本的には
 ランダムが最も良く近似できそうに思える。棋力も考慮すると序盤をランダム、
 中盤は後半から別フィルタとの組み合わせが直感的には良さそうだが
 検証してみたか。

Q. 各フィルタの特性や棋力は、ポテンシャルの与え方の性質上、
 碁盤のサイズによっても変化がありそうだが問題にならないか。

  • 配属人数下限付き研究室配属問題
  • 問題意識:多対一マッチングにおいて下限導入
     下限導入でも動くようにアルゴリズム拡張
     例:研修医配属問題、タスク割り当て、震災地ボランティア
    選好を考慮する→Multi-Stage導入
    
    
    Q: 下限制約が求められる問題例にといて、完全で厳密な選好を持つという
     前提は問題にならないか?半順序に拡張することは可能か?
    Q: 戦略的操作不可能(偽の選好を表明しても特にならない)+全順序選好リスト
     必須という前提は本当に望まれているのか?
     →選好仮定の緩和、不完全や同順を許した選好
    
    <事前疑問点>
    Q. 定義1の条件2の意図が良く分からない。
     学生iは「|M(lj)|<qj」の時点で学生i'とは無関係にljに配属すべきにも思うが、
     どういう状況を表しているのか。
    
    Q. 学生や研究室の選好リストが全順序であるというのは困難な前提に思えるが、
     問題にならないのか。
    
    Q. 選好リストに駆け引きが含まれている場合、その影響を加味したより簡易な
     解法は考えられないのか。例えば、戦略的操作不能では「自身の真の選好
     リストを申告した際の効用最大化」を意味するようだが、偽の選好リストを
     申告することで効用最大化を図ることは考えられないか。(実際問題として
     そのようなことが行われていないのか)
    
    Q. 似たような質問になるが、ブロッキングペアに含まれた学生は、
     本当にブロッキングペアだったのか。また、ブロッキングペアではないと
     判断された学生は本当にそうだったのか、についての調査結果はあるのか。
    
    Q. 実際の「正当と認められる不満」は、定義1や2で必要十分に記述出来ているのか。
    
    Q. 3タイプのブロッキングペア数を指標として用いた安定マッチングを
     導いていると思われるが、導いたマッチングに関して何らかの批判は
     出ていないのか。
    
    Q. 本質的な話とはズレてしまうかもしれないが、ブロッキングペア数だけを
     最小化することが目的で良いのか。例えば、ブロッキングペア数自体は
     最小だが、ある学生は極端に選好順の低い研究室に配属されているといった、
     学生毎もしくは研究室毎の選好満足度のバラツキが極端に低いマッチングが
     与えられていたとしても問題ないのか。
    
    
    
  • ノード配置問題に対するアント最適化法
  • 問題意識:BMSNの最適ノード配置による伝送効率化
    
    
    Q: 高負荷トラフィックが生じるノードは時々刻々と変化しそうだが、
     その都度最適配置を求める必要があるのか。
    
    Q: アントサーチでアントのいる行と列全ノードを再配置対象にしているが、
     このように設定した理由は何故か。
    
    Q: イータによる問題領域固有情報の効果が高そうに思うが、
     ACO以外の他の手法でも同様の設計を導入することで改善できたりしないか。
    
    Q: IKLSより平均的にすぐれているとのことだが、最悪時等での差はどうだったか。
    
    <事前疑問点>
    Q. アントサーチの際に、未割り当てノード集合N^kが、同じ行と列方向
     全てのノードとなっているが、この設定はどのようにして決められるのか。
     ノード距離でいうなら同距離に位置する斜め方向も必要だと思うが、
     特に考慮する必要はないのか。ネットワークのサイズに依存してどこまで
     考慮するのか(全ての行や全ての列で問題無いのか)も調整が必要に思う。
    
    Q. アントサーチと切り離して考えるのは困難かもしれないが、問題領域固有情報の
     与え方自体の効果が高いように思える。同様の与え方を他の解法に組み込むこと
     はできないのか。言い換えると、ACOが解法としてすぐれているのではなく、
     制約の与え方がすぐれている可能性はないか。
    
    Q. 高負荷トラヒック間のホップ数が1であることが最良のノード配置とのことだが、
     トラフィックには入力と出力があり、それらの対のホップ数が1であることが
     最良ではないのか。また低負荷トラフィックは無視して問題無いのか。
    
    Q. 実用上の制約は全て含まれているのか。計算リソース上の制約や、時間の制約等。
    
    
  • 移動体の通過順序付けにおける最適化手法の比較評価
  • 問題意識:船のような複数移動体が同一領域共有通過
    
    
    Q: 入域点、出域点を増やしても適応可能か。
     →今後の課題
    Q: 入域点のある問題設定が良く分からないが、何のためにあるのか? 具体的な例は?
    Q: 買い物のレジと違う点は?
     →移動体間隔制限が違うと思うが、未調査
    Q: 全体遅延を最小化することで個別のユーザに必要以上の遅延を強いることに
     なると思うが、そこについて何かしら下限なりを設けることはできるか。
     →調整可能
    Q: 「公平性の損失」で順序しか考慮されていない(時間が加味されていない)が
     問題無いか。
    Q: 移動体の種類が3種以上に増えても問題無いか。
    
    <事前疑問点>
    Q. タブーサーチのようだが、タブーはどこでどのように設定している?
    
    Q. そもそも求めたいものは何? 問題設定が良く分からない。
     移動体は三種類以上に増えても適応可能?ユーザはどれでも自由に乗れる?
     移動体のコストは?
    
    Q. そもそもGAのような大域的手法が向いていない問題設定に見えるが、
     セービング法等の局所探索手法との比較は?
    
    Q. 今回の手法は移動体が3種以上であっても適応可能か。
    
    
    
  • 整数ナップザック問題を対象としたQuantum-Inspired Evolutionary Algorithmの基礎検討
  • 量子力学的原理+GA
     量子ビット表現、量子重ね合わせ状態を模倣
     問題意識:整数型の遺伝子表現を可能とする表現法
     移住処理→対交換処理に置き換えることでパラメータ数減少
    
    Q: 観測結果は毎回異なる?
     →世代毎に一度ずつ観測
    
    Q: GAと比較してどのていど計算量が増えるのか。
     →ほぼ同等
    
    Q: 収束状況や適応度変遷具合から決定したようだが、
     回転角度は変動させることはできないか?
     →SAのようなやり方も可能だと思うが、
      島GA的な操作が内部に含まれるため殆ど必要ないと考えている。
    
    Q: 実験2の結果で、適応度は最適に近いところまで獲得できた? 局所解に収束?
    
    事前疑問点
    Q. QEAにおける「量子ビット表現」とは? ユニタリ変換とは?
     一般的なGAとの違いはコーディングのみ?
    
    Q. QEAも知らないのでご教示頂けると嬉しいのですが、QEAやQEAPSは
     一般的なGAと比べて計算リソースも少なく、計算時間も短くて済み、
     得られる解の質も高いという傾向があるのだろうか。
    
    Q. GAは、島GA等の並列処理しやすいアルゴリズムだと思うが、
     QEAやQEAPSも同じような並列化は可能か。(観測とかユニタリ変換とか
     分からないので、並列化に不向きな点があれば教えて欲しい)
    
    Q. QEAPSでの探索性能の差が僅差であることについて、
     一般的なGAでいうところの局所解に陥りやすい枠組みになっているという
     ことは考えられないか。図3で示されているのが十分最適解に近い適応度に
     達しているなら、より大規模/複雑な問題でも検証してみるべきではないか。
    
    Q. 一般的なGAと比較して、QEAPSでもまだパラメータ数が多いように感じるが、
     これらのパラメータの中で省略もしくは自動調整するようなことが
     考えられそうなパラメータはあるのか。
    
    
  • ネットワークの隔たり数とエントロピー
  • ミルグラムの実験、6次の隔たり
     閉路が存在する場合の重複を考慮したい
     スモールネットワーク/スケールフリーネットワーク
      閉路の数で情報伝達のしやすさが真逆
    
    中間的ネットワークモデル2種類考察、
    次数分布エントロピーの情報伝達に及ぼす影響⇄閉路の影響
p次一般化クラスタリング係数C(p): ネットワーク内の多角形構造量を表す一指標
    ミルグラム条件Mn: n次の隔たりが成立する条件
     スモールワールドネットワーク:C(p)が大きくなると情報が伝わり難くなる
      閉路が情報伝達を阻害
     スケールフリーネットワーク: Xn,C(p)が増加するとMnが大きくなり、n次の隔たりが満たしやすい=情報が伝わりやすい
      閉路の数の増加が情報伝達を促進
    中間的ネットワーク
     スケールフリー(sk)→スモールワールド(sm)
      (sm)張り替え率Pの増加と共に、局所クラスタリング係数Cと最短平均パス長(≒Mn)が増加=伝達し難い
      Pの増加=ランダムネットワークに近づける?
     スモールワールド(sm)→スケールフリー(sk)
      (sm)
     →閉路数ではなく次数分布エントロピーが情報伝達に影響
    
    
    Q: ミルグラムの実験で閉路の影響で遠回りするという話があったように思うが、
     閉路はカウントしていないのでは?
    
    Q: 中間的ネットワークの作成方法が影響していないか。
     →傾向確認済みで問題無い
    
    Q: ミルグラム条件Mnと最短平均パス長Lに良い相関が見られるということを
     利用しているが、ネットワークの作成方法は影響しないのか。(中間的ネット
     ワークにもいろいろ考えられ、今回想定した中間的ネットワークではこういう
     傾向だったというだけ?)
    
    <事前疑問点>
    Q. XnやC(p) は閉路と等価な、もしくは近似された指標? XnやC(p)は多角形構造
     を用いた指標になっているが、多角形構造を閉路と言い換えているのは
     何か理由があるのか。
    Q. ミルグラム条件Mnと最短平均パス長Lに良い相関が得られていることが
     示されているようだが、先行研究でも中間的ネットワークのような操作を
     行ったネットワークに対しての調査も行われているのか。(言い換えると、
     ネットワーク生成法が与える影響は十分無視できるのか)
    
    Q. スモールワールドにおいて、張り替え率Pを上げることがランダムネットワーク
     に近づけることと解釈しているようだが、その解釈は正しいのか?
     (例えば張り替え操作は、ハブと連結しているノード間に枝を張り、
      代わりにハブから出ている枝を削除するという2つの操作がセットに
      なっているが、この1セットが処理されることにより何らかの偏りが
      生じる事はないのか)
    
    
  • 経済性を考慮した電力自給のための生活スケジュールの提示
  • 仮想スマートグリッド環境、マーケットプライス
    問題意識1:電力コスト高い時に買ってしまう恐れがある
     高コスト→電力使用を避ける
      生活スケジュールの推薦
    問題意識2:スケジュール推薦の上での目的
     電力会社からできるだけ買わないように
     安いマーケットプライスを望む
      スケジュール最適化(次の日の生活スケジュール)
      生活行動毎に時間、期間、分割、並行、代替条件を設定
    
    
    Q: 需要と供給の関係からマーケットプライスの変動が設定されているようだが、
     2つの組み合わせしかなかった。それ以外の状態ではどうなる?
    
    Q: 目的1と2を合算して考慮しない理由は?
    
    <事前疑問点>
    Q: 推薦されたスケジュールに合わせた生活は可能か?
     例えばTV。録画はどうする?
    
    


    一般セッション:(言語処理の)分類

    座長さんも聴講者も予稿までちゃんと目を通した上での質問が多く、質疑時間5分の割には濃厚な時間になってました。凄い。

    問題意識:学習カルテ提供による自己分析/引き継ぎ資料作成コスト削減
    
    
    Q: TFIDF正規化/非正規化でノイズワードは正規化した方が多くなったが、
     最終的なF値ではどちらが良い?
    A: F値では差が見られなかった。
    Q: 普通に考えると正規化した方が良さそうに思うが、何故差がでなかったのか。
     例えば「こういう例があった」というものが無いか。
     何故ノイズワードが増えるのか。
    A: 設問において文字数が多くないので正規化/非正規化で何か差が出ると
     思ったが、あまり見られなかった。
    Q: その辺りも考察してみると良さそう。
    
    Q: そもそも非正規化よりも正規化がうまく表しているという根拠が
     ノイズワードだけにみえるが、何故それを根拠にしたのか。
    A: 以前の実験で、TFベクトルとTFIDFベクトルで行った際にはノイズワード数の
     大小で比較できた。
    Q: ノイズワード以外に現れている語に重なりもあるが、違う語も出てきている。
     どちらの語がより設問の特徴を表しているかについては検討したか。
    A: 今回は考えていなかったが、今後考えていく予定。教科書にある太字単語等を
     重要度にして指標として使うことを考えている。
    
    Q: 試験全体において設問を特徴付けるような語はそもそもあるのか。
     データを眺めていて気づいたものがあれば。
    A: 教科書の太字単語は良く出てくる。
    Q: それなら太字を使えば良いのでは。
    
    
    
  • ニュース記事の国別クラスタの作成と多国間対応の実験評価
  • 問題意識:報道姿勢や内容には各国の思想や文化等による違いが表れる
     ユーザが各国の価値観の違いを比較できるシステム
      各国がどのような話題に注目しているか
      ある話題に対する各国の注目度の差の比較
     Q: 話題の定義は?
     Q: タイトルや本文をどうベクトル化する?
     Q: 国別クラスタリングはどうやる?
     Q: 国別クラスタ間のマッピングは1対1対応とは限らないのでは?
    
    
    Q: クラスタリングして対応付けるということだが、
     クラスタ数はどれぐらいになった?
    A: 1記事でクラスタになることが殆ど。日本記事数1655で
     クラスタ数600~700程度。
    Q: どれか1国を決めて基準になるクラスタを決めて対応付ける方が良いのでは?
    A: 国別のクラスタリング結果F値が大きく異なるため、
     基準を設けるのは難しそうな印象。
    
    Q: 各国の注目度の差を見たいということに対して、今回のタスクは同じ記事か
     どうかを推測するタスクになってるように見えるが、今回のタスクはどういう
     位置付けなのか。類似度の高く無い意味とか。
    A: 報道の方向性が似通ってるなら全体的に類似度が高くなるが、
     違ってる場合には重要後のみが共通しているという状況が出てくると思う。
     そういうところからアプローチしたい。
    
    
    
  • Wikipedia記事に対する類似記事群の出典傾向の提示方式
  • 問題意識:記事への出典付与コスト緩和
     Q: 信頼性を高める際に出典付与の有無だけで判断して良いのか。
     記事毎に出典傾向が異なる
     出典のつけられていない記事に対して出典を探すべき媒体を提示
      一つの記事が複数カテゴリに所属
      カテゴリ毎の社会的認知度に差がある
      →より狭い範囲でのカテゴリ毎に平均した傾向を取る
     Q: 記事単位ではなく、文章単位とかより細かい単位での出典傾向、もしくは出典が求められるといったことを提示できないか。
    
    
    Q: 存命/非存命で分けるという観点は面白いが、急に無くなられたからといって
     傾向が急に変わるという訳ではないと思う。
    A: そういった例もあるが、将来的には生まれた年によるグルーピングも考えている。
    Q: そういうパターンがカテゴリ毎にも変わるんじゃないか。
    A: 検討したい。
    
    Q: 根本的な所は出典傾向が似ていれば一つのグループにまとめられるのでは
     ないかということ?
    A: 出典傾向がまとまっているグループを見つけるためにグルーピングしたり
     出典付与具合で確認している。
    Q: Wikipediaで出典を出す場合に参考にするということのようだが、
     出典傾向からグループを作成することもできるのでは。
    A: 検討したい。
    
    Q: 出典傾向については納得したが、編集者にとって出典を探すための支援に
     これがどのぐらいになるのかが見え難い。出典支援を考えたら出典は記事の
     まとまりや一文毎につけたりすることもある。どのぐらい有効になるのか。
    A: 何も情報がないよりは傾向を出しておけばマシだと思う。Wikipediaは
     仮出典つけるとしても編集者によって消されることもある。
    Q: 調査結果は面白いので、もう少し別の方向に活かすことも検討してみてはどうか。
    
    
  • 同一事象に対する異新聞社記事間の相違点検出のための文間対応とその評価
  • 問題意識:事象の扱われ方の違いを検出
    問題意識:新聞社毎の見解や意見の違いを検出
     クラスタリング→文間の対応付け
     形態素一致率
      Q: 単位は「文」で問題ない?
    
    
    Q: 文間対応はクラスタリング結果が影響していないというようなことを
     述べられていたが、文間対応の結果も良いかイマイチか言いづらい結果に見える。
    A: 再現率に関しては影響が無い。
     取るべく対応のものは同一クラスタに存在することを確認済み。
    
    Q: 文間マッチングする際の文の選択はどうやる?
    A: 1〜3文単位での総当たり。
    Q: 「ある出来事」というのは時間的推移がある。DPマッチング的な遷移を
     含めた応用は考えられないか。
    A: 記事の日時は取っているが、まだやっていない。
    Q: もう少し緩く対応を取るとかしたくなる時に使えないかと感じた。
    
    Q: 最初の質問について、今回の実験では問題無かっただけで、
     今後のデータ次第では問題になることも考えられる?
    A: 可能性はある。
    Q: クラスタリングを使わない手は考えられない?
    A: 総当たりのため、計算量削減のためには必要。時間的推移的な類似度の
     利用等で代替も可能かもしれない。
    
    Q: ある新聞社はある評価をしつつ、別は評価をしていないこともありえる。
     そこはどうやって扱っていこうと考えているのか。
    A: クラスタリングで考えている。
    
    
    
  • Web検索結果のラベリングにおける閾値の利用について
  • 検索結果をクラスタリング提示
    クラスタへのラベリング:重要な単語TFIDF
     問題意識:TFIDFだけでラベル決定できない
      一致率の採用
       Q: TFIDFとの比較結果は?
    
    
    Q: 既存ロボット型問題点としてユーザがキーワード思いつかないケースを
     上げられたが、システムにおいて検索結果を取得するのは誰が行う?
    A: ユーザが行う。
    Q: キーワード思いつかないケースに対してそれは適切なのか?
    A: 思いつくのが難しい場合、より曖昧なキーワードを入力すると思う。
     曖昧なキーワードを入力した上で検索結果から得られる下位概念を提示する
     ことで対応している。
    
    Q: 正解ラベルを生成するのは実験者がやっているようだが、その判断基準は?
     迷ったりすることはなかったか。
    A: 迷うことはあった。ラベル一つしかつけてないがラベルにも複数の意味がある。
     同じ内容を表していても違う単語のケースとかも。
     厳密にしていく必要性は感じている。
    Q: そこが基盤になっているので複数人に評価してもらっているのは良いと思うが、
     人によってWebページの捉え方が異なると思う。処理は難しくなるかも
     しれない。大量の正解ラベルを付与しておいてそこから絞り込むような流れの
     方が良いように思う。今回のように1ラベルで解決しようと下理由は。
    A: 実験前の段階ではそのような差異がないと考えていた。
     しかし実験するにあたり複数ラベルの必要性を感じた。付けてる傾向はある。
    
    Q: ラベルを名詞や複合名詞一語で表すことはそもそも可能なのか。
     WISDOMだと極性とかも考慮されている。ラベル1語というアプローチは、
     本来目的とされている「利用者が探しやすい」という要求を満たすようなものなのか。
    A: そのような評価はまだやれていないが、確かにラベル1語ではなく複数語を
     検討する必要性は感じている。
    Q: 次元数削減はクラスタリングで削減?
    A: クラスタリング前に削減した上で、クラスタリング。
    Q: ラベルの次元数を削減するということとラベルを選ぶことの次元数を削減する
     というのは同値? 「次元数が多いトラベル候補が増加」というのはどういう
     意味? クラスタリングの次元数を減らすかどうかは別問題?同じ問題?
    A: 両方を対象としている。クラスタリングする際にも素性が多すぎると問題が
     起きるので、良好な素性のみを使ったクラスタリングを行いたい。
    
    

    FIT2011, day2

    木曜日, 9月 8th, 2011

    FIT2011の中日が終わりました。これで2/3のスケジュールが終了したことになります。

    2日目のプログラムはこちら

    午前中はイベント企画サイバーフィジカル情報革命 ~情報爆発から価値創造へ:米国NSFの最新動向~
    蛇足ですが、イベント会場1,2共に人数は結構入るのですが、スクリーン自体のサイズがやや小さかったり、プロジェクタ投影サイズと合ってなかったり、位置が見づらかったりしたのがやや残念。

    午後は一般講演「言語資源」に参加してきました。

    青字は質疑応答時のやりとりですが、ニュアンス自体が大分違ってる可能性が高いです。


    目次
    イベント企画: サイバーフィジカル情報革命 ~情報爆発から価値創造へ:米国NSFの最新動向~
     ・Big Dataとサイバーフィジカル
     ・統合情報基盤としてのサイバー・フィジカル・システムにおけるオープン・スマート・フェデレーション
     ・ポストペタスケール時代の情報分析技術
    一般講演: 言語資源



    イベント企画: サイバーフィジカル情報革命 ~情報爆発から価値創造へ:米国NSFの最新動向~

    Big Dataとサイバーフィジカル

    本題に入る前に
     震災にどれほど役立つことができたのか
      何ができるのか、対応のトレーニングが重要かもしれない
      ヤシマ作戦:Blog, Twitterの比較
       情報伝搬(避難口情報広がり方)の可視化
        ヤシマ作戦に見る草の根的な Diffusion Pattern (拡散パタン)
        インフルエンサーによる拡散パタン: e.g., 有名歌手による募金
       人の呟きがセンサ
        Twitter Sentiment, psyng.com
       スパイク(瞬間的な発火)を見るのではなく Diffusion Pattern を見る時代へ
       多様なITメディアのリアルタイム解析
    
    NSFの最新の動き
     CPS PI meeting in Washington
     The Growing Imperative and Transformative Impact of Cyber-Physical
     Digital Future
      explosive growth of scientific and social data
       melding of the cyber world with the physical world
    
人のつぶやきは大したことは無い。モノ(センサ)がしゃべる時代へ
     The Age of Observation
     CPSプログラム自体は数年前から始まっててるもので、新しいモノではない
      フィジカルワールドにくっついてきていることを真摯に受け止めようという流れ
     表現は違うがだいたい同じ方向感
      CPS, 情報爆発、情報大航海、Smarter Planet, IOT, M2M, Big Data, etc.
     CPS Research Gaps
    
    基本アーキテクチャ
     Cyber World  Physical World
      センサを通したフィードバックのある世界
    
    事例
     船の運航(省エネ運行)
     ウェザールーティングによる最適計画
     物流 by NEC
      SeeT-navi
     人の健康
      情報薬:適切なタイミングで提供される情報
      保健指導の大幅な効率化
       問題点:個々の多様性が大きい
        transfer learning
     個々のサイバーデータ活用事例はそこそこある
    
    Big Data
    Personal Data: The Emergence of a New Asset Class
    
    
    Q: CPSの応用例に米国・海外のものが上げられたが、
     日本が独自にやらなくてはならないものがあるか。
    A: アプリケーションドメインの幅は広がる一方で、今回書介したのはほんの一例。
     例えば空港の価値が諸外国に負けているということを情報集約の観点から解析したり。
     いろんな所に挑戦していくべき。
     ポイントは、複数のステークスホルダーが跨がっている所が面白い。
    
    


    統合情報基盤としてのサイバー・フィジカル・システムにおけるオープン・スマート・フェデレーション

    Improvisational Federation
     即応的な対応が重要。適応に至る一歩手前。
      大規模かつ多様なデータ、開放されたもの。シナリオは計画されていない。
     Lower/Middle/Application layer
      Cyber/Physical cloud
      Open library: cyber-physical knowledge-processing
    
    Open smart federation architecture
     Generic Wrapping of Resources
     Integrated Data and Knowledge Presentation
     Virtual Reification Framework
      視覚化フレームワークではなく、
      相互作用的に機能するオブジェクトとしてのフレームワーク(?)
    
    Meme Media & Meme Pool
    The Memetic Web
    PadSpace for Knowledge Federation
    Cyber data mining (ill-formed)
     interactive visualization
     improvisational combination of tools and application to CPS data
    
    Reexamination of Disaster Response System in U.S.
     Before: NIMS
     After
      Balancing between Agility and Discipline
      Technology-Mediated Support for Public Participation & Assistance
    
    
    Q: 大震災例だとその場に専門家がいる訳ではないことがある。(殆ど聞き取れず)
    A: いろんなスキルレベルの人が関与する中で、
     各々のスキルに応じて適切なツールを提供する事は大切だと思う。
    
    


    ポストペタスケール時代の情報分析技術

    データ構造といったことだけではなくハードも含めた新たなパラダイムの必要性
    「データはめしのたね」
     処理や通信といったスペック向上だけではNG
      PCはどんどんほぼゼロコストに
      電力、スペースは高いまま
     付加価値
      情報爆発→どんどん探し難く→データの目的に踏み込む必要性
     東北大震災の1年前から話が出ていた: e.g., オーストラリアの山火事
     世界的に必要性が高まってきている
    
    スマート・プラネット
     単にデータを蓄えるだけではなく具体的に何をしたいのか。
     クロスドメイン、多種多様なデータ、性質も異なる。
      種類や時間軸の異なるデータの合成や複合的な分析により情報価値を高める。
     蓄積→分析→推薦→アクションにまで繋げる
    
    事例
     港湾・河川のリアルタイム監視
     世界の個人のDNA解析による人類の起源の調査
     電力需要と気象の監視・予測→発電量の最適化
     センサを増やすだけでは足りず、分析技術が必須
      より多くの事象をモニターし、より迅速な意思決定の必要性
       Q: 意思決定にもバリエーションが多々あるが、汎用的に提供可能か?
      Big Data + Learning Systems
    
    Big Data: Deep Analytics and Reactive Analytics
     蓄積しているデータ+流動するデータ
      少ないデータで即時に反応する必要のあるケース
      大量のデータに時間をかけて反応する必要のあるケース
      迅速な処理系とディープ解析を統合
       リアルタイムにフィードバック得ながら洞察可能に
     データが沢山あっても全部見れる訳じゃない。
     見えない部分(間)を補完/推測する必要がある。
    
    Learning Systems
     従来:システム毎の出力は同一
     学習システム:持ってる知見から出力(異なる可能性、むしろ異なって然るべきかもしれない)
     進化する学習システムと人間の関与
      仮説/学習/検証エンジンの導入
    
    
    Q: 仮説/学習/検証といったこれまで人間がやってきた部分をやりたい
     ということだが、どこまでできているのか。
    A: 非構造化データにアクセスするという点と、仮説を持ち、検証する所は
     ある程度可能になった。ポリシーエンジンについても。
     完成はしていないが、Watsonとして意思決定を下せるレベルにはなった。
     一方、対話しながら混乱するケース(人ごとに異なることを主張されるとか)、
     DB内の矛盾等についての学習等、いくつか解決すべき問題も見えてきた。
    
    


    一般講演: 言語資源

    • 名詞と動詞の共起に着目した状況認識
    問題意識:会話の状況や文脈といった内容の推定
     単語の共起データの活用
      EDR電子化辞書:膨大、動詞を基準とした特殊な記述なので扱いづらい
       親密度を用いることであまり一般的でない単語の削除
        Q: 親密度はドメイン毎に異ならないか?
      インターネット上のコーパス
       検索エンジン:動詞→名刺/助詞パターン
     寄席文(三題噺)生成
      Q: 何を評価している/評価することになるのか?
    
    
    Q: 共起を利用して文を生成したものを評価するということは、
     何を評価していることになるのか。
    A: 連想的な意味での内容をうまく表現出来ているという評価になると考えている。
    Q: 共起を用いている時点でそれなりの自然らしさは実現出来ていると思うが、
     問題になるのは素朴に共起を用いることででてくる例外をどう取り除くかだと
     思う。何かしら検討しているのか。
    A: 今の所まだ未検討。
    
    Q: EDR格フレームを選択した理由は?
    A: 研究室で扱いやすい環境だったのが大きな理由。
    Q: フレームネットもあるので、それとの比較やサーベイ等はあるか。
    A: 他データとの比較は行っていないので検討したい。
    
    Q: コメントになるが、
     動詞だけにすると「頭に来る」とか意味が変わってくるので、
     動詞だけというのはやめた方が良い。
    A: ありがとうございます。
    
    
    
  • オントロジーを用いた民具研究者支援システム
  • 対象:民具(現役引退した地域の語り部になる道具、古い道具)
     民具カード:制作者毎に書式が異なる
     経緯:使用目的で検索し難い点を改善
      意味オントロジーの導入
       検索単語を含まなくても検索単語に近い内容を含む検索
       「穴をあける」といった共通項を利用した検索
     目的
      民具分類方法(文化庁分類)の抱える問題:1民具1分類
       Q: 図書の分類でも1図書1分類だと思うが、分類自体を詳細に検討
        することで解決できないのか。何が問題なのか。
      →機能分類に沿った振り分け
    
    
    Q: オントロジーを作られたということだが、どう作ったのか。
     参考にしたオントロジー体系はあるか。
    A: 先輩が作成したカクテルオントロジーを参考に。
    Q: それはアルコールというモノの種類のようだが、動作的なモノは?
    A: 動作に関しては無い。データを見ながら構築した。
    Q: 折角作ったオントロジーなので、既にあるものとの親和性について
     検証してはどうか。
    
    Q: is-a, instance-ofが出てきたが、どう使い分けているのか。
     例を見る限りではis-aにしか見えない。
    A: 「害虫is-a昆虫」ではどちらでも可能だが、
    Q: どちらでも良いのなら分ける必要性が無いのでは。
    A: 大雑把すぎるので分けた方が良いと考えている。
    Q: instance-ofはより具体的な、this とかつくようなケースだと思う。
    
    
    
  • 多対多の関係性を持つ多言語用例対訳のデータ構造の提案と評価
  • 問題意識:一意に変換できない用例(多対多)の存在
     メタノードを用いて一意に変換可能にする手法を提案
     用例対訳:一意に変換可能
      医療分野の用例対訳収集システム:TackPad
      用例間の意味の確認
       用例間リンク
    メタノードの自動生成
     部分的に完全グラフとなっているものをメタノードに結合
      メタノードの選択に問題が残る
       メタノードへの意味の付与
        フォーマル/インフォーマルを人手付与
         Q: 選択できるのは人間だけ?
         Q: 他にどういう種類がある?→病名、症状
    
    
    Q: 医療現場で試してみる?
    A: NPOと協力して病院関係通訳者らと話合って出てきたので取り組んでいる。
    Q: 実際に使ってもらった?
    A: まだ使用する段階になっていない。複雑になっているのでなんとかしたいと考えて今回の手法になっている。
    Q: 用例はかなり作成コストの負荷が高いように思うが。
    A: 今回とは別の例になるが、工夫も試している。
     花粉症に関する言葉を集めてみるとか。分野を限定するとか。
    
    Q: 完全リンクを求めてメタノードを付与するようだが、その時に完全グラフを
     構成しているノードの数の多さと重要度との関連性はありそうか。
     例えばメタノード数の大小で用途が変わるとか。
    A: 結合ノード数自体が重要になる場面は少ないかも。ただし、提供する場合に、
     2〜4では足切りした方が良いケースが多いという傾向はありそう。
    
    Q: メタノードを使うことによる本質的な利点は何?
    A: 4言語を扱ってる状況を想定して欲しい。例えばタッチパネルで組み合わせて
     使うことが多いが、言語を切り替えながら使うとなる状況でどれに変換すべきか
     が悩ましいことが起きる。
    
    
    
  • コーパスを利用した自然言語研究・学習・教育支援システムの開発に向けたRDBMSの評価
  • 英語コーパスを用いた教育者の活動を支援するシステム開発
     問題意識:コーパスを統合し、一括して解析できるシステム
      データ蓄積部分+解析部分
      統計解析・検索ツール/学習支援ツール/教育支援ツール
      ARE(Allocation of Remarked Elements)による構造表現、属性情報付与
    
    
    Q: 背景で、様々な用途を統合するという話があったと思うが、RDBではスキーマを決めてしまう必要性があると思うが、決め方や拡張性に問題は無いか?
    A: 属性付与については問題無い。
    Q: 属性情報を追加したいとなっても対応できる?
    A: テーブル増やすことで対応可能。
    
    Q: RDBを使う目的や意図は?
    A: 文の構造を管理するだけでなく、構造に対する属性情報を管理できること。
    Q: XMLのままで何故いけないのか?
    A: 解析対象が複数ある時に、様々なフォーマットがある。
    Q: 一つのコーパスに対して複数スキーマで同時に対応する?
     XML化してしまうとタグ振ることで解決できるが、
     他フォーマットでも同様のことをしたい?
    A: はい。
    
    
    
  • 自動生成された常識的知識を表現する文の自然性判定
  • 常識を利用した研究が日本語ではあまり盛んではない
     問題意識:常識データベースが公開されていない
      日本語WordNet、ConceptNet→常識的知識を表現する文の生成
       Q: 「常識的知識」を文で表現しようと考えた理由は?
       Q: 用例とは何が違う?
     同意名詞の獲得
      大量文生成
      判定(スニペット共起回数/完全一致割合/活用検索割合)
       Q: 検索エンジンの結果に依存して問題は無いか?
    
    
    Q: 常識をどのように考えているか。例えば「外に出てみたら道路に出ていた
     →雨が降っていた」というような推論? 単なる共起性の判定?
    A: 常識的知識として、常識・文化的知識・専門的知識を含む知識で、
     推論を含まない単純な知識。
    Q: 文法的にも意味的にも満たしているのは全て含む?
    A: その通り。
    Q: 共起性判定との違いは?
    A: 共起するものを閾値として利用しているが、最終的に実際にWeb中にあるもので、単純に共起しているものではないものも扱っていきたい。
    
    Q: 常識的知識を文章として表現しているが、用例とは違うのか。
     用例コーパスは大量にありそうだが。
    A: もっと大量に作りたい。まずはConceptNetのコーパス拡張。
     最終的にはパターンのような形で常識を生成できると思う。
    
    Q: 普通常識だとスニペットに出て来ない気もするが。
    A: 全く出て来ないものというのはあまり無いと考えている。件数だけだと
     除外されてしまうケースでも、割合を考慮することで救済できると思う。
    Q: 否定についてはどう扱う?
    A: 今回は処理していないが、否定文を否定として扱うこと等も考えている。
    Q: 「夏は寒くない」という文章なら沢山ありそうなので、そこから常識を
     抽出しようとした方が沢山取れそうな印象。
    
    Q: チャレンジングな課題に思うので頑張ってください。
    
    
    
  • 日中機械翻訳のためのスーパー関数抽出における対訳辞書自動構築
  • スーパー関数
     変数と定数からなる。任意一部分を変数とし、残りを定数と定義。
     変数を入れ替えることで別事象を表現。
      対訳コーパスさえあれば、スーパー関数抽出が可能→翻訳可能
    問題意識:名詞だけを変数と定義してるため、資源浪費。
     ほぼ同じ文でも異なるスーパー関数が必要になる。
      助詞と助動詞のみを定数、それ以外を変数と定義→関数整理。
      ただし、訳語の選択問題が残る
       対訳辞書の自動構築で解決したい
        主語と動詞の共起を考慮
     中国語形態素解析精度の問題
    
    
    Q: 正解率86%となっているが、この結果はどう考えられるか。
    A: 3つ以上の要素が含まれるスーパー関数が使われる文を生成したが、
     多重訳を持つ文を判定するつもりだった。その場合には誤ったケースが見られた。
    
    
    

    FIT2011, day1

    水曜日, 9月 7th, 2011


    FIT2011の初日が始まりました。

    1日目のプログラムはこちら

    FITに参加し始めたのは去年からなんですが、年々全国大会並に参加者が増えてるんじゃなかろうか。一日の構成は「午前中に1セッション、午後に特別講演と1セッション。これらと並行してイベント企画や展示会」となっているのですが、この1セッションあたりの並列度が21個もあって、全体の1割見るのすら無理になってたりします。予稿自体は見れるから良いというのもあるけど、ちょっと広く薄くなり過ぎてないかなー。狭く濃くやるなら研究会に行けよという話ではあるので、そっちにも参加する予定ではありますが。

    という訳で、あくまでの私自身が参加したプログラムに関する備忘録になります。

    午前中はイベント企画機械学習の最前線
    参加してから気づいたんですが、IBISML(情報論的学習理論と機械学習)研究会(Web URL、Twitter: @ibisml)主催のチュートリアル企画でした。興味があってMLにはROM参加しているのですが、どおりで興味のあるテーマが揃ってるチュートリアルな訳だ。プログラムにもそう書いててくれれば迷わなかったのにー。

    午後は特別講演と下地くん発表の一般物体認識セッションに参加してきました。

    青字は質疑応答時のやりとりですが、ニュアンス自体が大分違ってる可能性が高いです。

    食事の様子はこちら


    目次
    イベント企画: やさしく分かる機械学習の最前線 ~データから意味を読み取る~
     ・隠れた構造をあぶりだす ~トピックモデルを用いた潜在意味解析~
     ・こんなに使える最適化手法
     ・自然画像の事前確率分布を応用した画質改善

    特別講演: 粘菌の行動知 ~原始生命システムの自律分散情報処理~

    一般セッション: 一般物体認識



    イベント企画: やさしく分かる機械学習の最前線 ~データから意味を読み取る~

    隠れた構造をあぶりだす ~トピックモデルを用いた潜在意味解析~

    文書
     同じ文書で現れやすい単語のまとまり(トピック)
     各文書は少数のトピックを持つ
      Q: ツイート等の短文ではそもそも表出するシンボル数が少ないが、問題にならないか?
    画像
     同時に共起しやすい(写り込みやすい)対象
    
    トピックモデル=隠れた構造(トピック)を抽出するための確率モデル
     教師無し学習
     拡張容易
  トピックに相関を持たせたり、トピック間に階層構造持たせたり、
      観測データを増やしたり、etc.
     文書に限らず様々な離散データに対して有効性が示されてきている
    
    入力: bag-of-words
     単語集合表現、順序無し
     シンプルな多項分布:全文書の単語が同一分布であると仮定
     混合多項分布:複数の単語分布があると仮定(1文書は1トピックを選択)
     トピックモデル:1文書の単語が複数の分布から生成されると仮定(単語毎にトピックを選択)
      複数トピックを持つ文書も表現可能
    
    PLSAとLDA:代表的トピックモデル
     基本的には一緒で、ディリクレ事前分布を仮定しているのがLDA。ベイズ的。
     ディリクレ事前分布:多項分布のパラメータを生成するための分布
     性能的にはトピック数等実験設定にもよるが
      多項分布<PLSA<混合多項分布<LDA
    
グラフィカルモデル
     変数間の依存関係を図示したもの
    
    学習(Collapsed Gibbs サンプリング)
     θとφを積分消去:共役事前分布を用いているため可能
     入力:文書データ、トピック数K、ハイパーパラメータα・β
     未知変数:
    
    応用例
     時間変化するトピックの解析
      多重スケール時間(複数の時間スケール)でのトピック発展を解析するためのモデル
     内容と関連するタグの抽出
      ソーシャルアノテーション:SBM、写真共有等
      内容と関連しないタグ:後で読む/これは凄い(主観評価)/etc.
     ファッション推薦
      写真からコーディネートを学習、上衣から下衣を推薦
      上衣と下衣に分けて特徴量学習
    
    
    質疑応答
    Q: スーパーパラメータの推定の仕方は?
    A: MCMC+サンプリングからの導出など、事例データからの推定方法がいくつかある。
    
    Q: ファッション推薦の評価の仕方は?
    A: 雑誌写真で片方を隠した状態で評価。実際にユーザによる評価もすべきだと思う。
    
    Q: 内容に関連しないタグを抽出すると何に使える?
    A: その後の学習等の際に除外することで精度向上等につながる。
    
    


    こんなに使える最適化手法

    計算機性能向上+アルゴリズム進歩に伴い現実問題に対しても有効な手段に
     PCクラスタ利用した例だとスウェーデン全都市TSPでも最適解求まる段階に。
    
    最適化分野の概要
     意思決定・問題解決のための一手段
     定式化+最適解の計算+最適解の検証・分析
     制約条件を満たす解の中で目的関数を最小(最大)にする解を求める問題
      線形計画問題
       数千〜数万パラメータぐらいでも一般的なPCでサクサク解ける
      MIPもほぼ現実的なサイズで解けるようになってきたので、
      研究対象としては非線形なMIP等がトレンドになりつつある
    
    計算困難な組み合わせ最適化問題
     易しい問題
      多項式時間で最適解を求めるアルゴリズムが存在する問題
      割り当て問題→ハンガリー法、最短経路問題→ダイクストラ法等
     難しい問題
      厳密な最適解を求めるのに最悪の場合に入力サイズに対して指数時間を要すると
      臣事されている問題、NP困難問題
    
    現実問題に対するアプローチ
     厳密解法と近似解法
     汎用解法と専用解法
     既存ソルバーの利用
      かっちりとハマる専用ソルバーが見つかる事は稀
      汎用解法のソルバーもいろいろ揃ってきている
     自分でソルバーを開発
      試行錯誤に十分な開発期間があれば良い選択肢。
      ランダムウォークの方が効率良いことも。
    
    事例
     集合住宅における電気自動車の充電計画
     事業所における電気自動車の充放電計画
  時空間ネットワーク(time-expanded network)
     統計的機械翻訳におけるフレーズ対応
     基盤検査におけるプローブ経路計画
     多角形詰め込み問題
    
    
    Q: 整数計画問題→線形計画問題にして解き、後で丸めてしまうのが楽という話が
     あったが、0,1しかでてこないケースでも良いのか。
    A: 問題によりけりだが、0,1のケースでは丸めるのは難しい。
    Q: 0,1変数しかない場合で解き難いケースでは、メタヒューリスティックに行くのが良い?
    A: 0,1変数でも分枝限定法なりで解けるケースもある。
     必ずしもメタヒューリスティックが良いという訳ではない。
    
    


    自然画像の事前確率分布を応用した画質改善

    事前確率分布
     函館といえばイカ刺しが美味しいはず!
    尤度分布
     ひょっとしたら今朝のホテルのイカ刺しは
     東京で食べるイカ刺しと同じ味かもしれない?!
    事後確率分布
     しかし「事前確率分布」の思い込みの分だけ、
     実際にイカ刺しは美味しく感じます!
    
    事後確率最大化法(MAP法)を応用した画像処理紹介
     超解像処理、ぶれ回復処理、デノイジング処理、、
     逆問題として定式化:不良設定問題
      y=Ax+n, E(x)=||y-Ax||^2_2
      事前確率分布を設定することで一つに特定しやすくなる
    
    事前確率分布(思い込み)が大事
     観測する前から分かっている情報(思い込み)を数学的に表現し学習するのが難しい
     適応的事前確率分布モデル
     事前確率の更新(繰り返し処理)
    
    事前確率分布を使わない方法:ML法
     ML法:最尤法(尤度最大化)
     MAP法:事後確率最大化(事前確率分布を利用)
    
    
    Q: 事前情報のアップデートはずっと続けるとoverfittingになるのか?
    A: はい。
    Q: どうしたらよいか?
    A: 経験的にやることになるが、PSNRを示せる真値のあるデータで
     やってみるのも一つの方法。
    
    Q: 事前分布を構成する部分についてMAP推定しているが、
     ベイズ使うなら1点を求めるのではなく分布を求めるのが自然に思う。
    A: その通りで、最良推定に近くなっていると思う。分布を求めることも可能。
    
    Q: 画質改善の場合、見栄えを良くする場合と真値にすること自体が目的の場合とで
     分けて考えるべき?
    A: その通りで、犯罪捜査のようなケースだと真値が重要。見栄えの場合は、
     方法論としてTV対応等の場合にリアルタイム処理といったことが必要。
    Q: 提案手法のスケーラビリティは?
    A: 100枚でも1万枚でも問題内容な方法を提案。ただし位置合わせ的な前処理は必要。
    
    


    特別講演: 粘菌の行動知 ~原始生命システムの自律分散情報処理~

    迷路等の幾何学的なパズルを解くという事実
    時間的な記憶とでも呼べるような、周期的な環境変動を学習して思い出す
    個性や逡巡と思える行動
    
    粘菌紹介
    ビデオ:Like Nothing On Earth
     多核の単細胞生物:脈打ちながら周囲を覆い尽くす様
      複数の個体がぶつかり合うと1つの変形体に合体
      切っても1個体として生存
      Q: 1個体として繋がり合おうとする欲求or利点がある?
    
    パズル解き
     迷路中にバラバラに配置→合体
     入り口出口にオートミール設置→最短路へ
      生理的要請
       体が繋がっていて、十分情報交換できること
       なるべく早く大量の養分を吸収すること
    
    流れに応じて太さが変わる管(管の適応性)
     管の流れが多いと管は太くなり、少ないと細くなるという性質を持つ
     管を水道管ネットワークとしてモデル化
      管:長さと太さで記述
      えさ場:流入、流出(流量は固定)
      さらに適応ダイナミクス(強化と減衰のバランス)を導入
       保存量を介した相互作用
       個々の管が独立してバランスを保持するように固定流量に沿うように行動
       →シミュレーションで再現
    
    場所の違い:危険度最小化問題(部分的障害光照射エリアを避ける)
     光が当たっている箇所への縮小項のパラメータを拡張
     数学的に同等な問題:光の屈折(砂浜+海)
    
    どこが情報処理?
     ビット列でない「情報」表現
     物理運動が処理過程
     管同士で流れを取り合うと自ずと最短経路が求まる
      脳のような司令官が無くても賢く振る舞う仕組み?
      集団運動の自己組織化/自律分散処理
    
    カーナビへの応用
     概して悪い経路から消滅、時々刻々かわる渋滞に適応
     現行のダイクストラ法にない利点
    
    沢山のえさ場を繋ぐ
     3つの異なる性質を「ほどほど」に満足
      全長の長さが短くなるように(コスト)
      耐故障性:断線に対する連結補償性 *何でこれが必要?
      連絡距離:効率
     社会インフラのネットワークが持つべき性質
      鉄道網の粘菌式デザイン
       モデルではパラメータで耐故障性/コストをチューニング
    
    時間記憶?
     刺激タイミングの予測+思い出し
     モデルの仮定
      粘菌自体が何らかのリズム現象(拡大/縮小/動くためのリズム)がある
      そのリズムは多重である
      リズム(振動子)は位相のみ、振幅は無視
      同じリズムを持つ振動子が多数
      全振動子の平均的挙動(秩序パラメータ)が移動速度
     モデルの振る舞い
      自然刺激に近い振動数を持つ振動子群がクラスタ群(スーパークラスタ)を形成
       すぐには壊れず、予測的な動作に繋がる
       暫く刺激が無いと壊れる(重心を見るとないように見える)
    
    迷い・個性?
     弱い毒キニーネに遭遇→立ち止まる→通過/分裂/引き返し
      Q: 弱い毒で分裂が起こるなら、耐故障性との兼ね合いは?
      Q: 個性?どの個体でもいずれかを選択しうる可能性があり、
       スーパークラスタとの兼ね合いで決定される?
     暑い先端部が消えたり現れたり
      モデルのアウトライン
       ゾル、ゲルの2相流体
       ゲルの張力発生によるゾル流
       早い線形弾性と遅い塑性
      2つのサドルが近接した解起動が振り分ける
     類似のモデル
      導火線のアナロジー
       粘菌の先端らしさの活動性(燃え尽きたマッチの再生を考慮)
    
    書籍:粘菌 その驚くべき知性
    
    
    Q: 数学系の研究者らとの共同研究になっているケースが増えているようだが、
     生命とは何かということについて何か思うところはあるか。
    A: 手短に述べることはできない。ある米国研究者の議論によると「何でも
     定義できると思ってはいけない」ぐらいの定義しか出て来ないらしい。
     どれもまずは物理現象だと思おう。それでいろんなことが、生き物の
     生き物らしいことも理解できるんじゃないかと思ったのが15年ぐらい前。
     根は生物学者だが、ロジックは物理や数学。思いもよらないロジックを
     うまく使えばいろんな生命現象が説明できるのかなという期待を持っている。
    
    Q: 情報処理という分野はコンピュータの性能を良くしてどんどん早くする
     という方向に進む。スローライフではないが、それに則した情報処理技術を
     探すべきかなという観点もある。粘菌はどんな情報処理要素でどう処理して
     いるのか。そのモデルをうまく使えれば良さそうに思うが、何かないか。
     生物にならえという感覚について。
    A: そういうことを考えていきたいと本当に思う。早くなることは良いことだと
     思うが、解き方。力づくでやるのではなく、批判している訳ではないが、
     何か違う解き方が沢山ある。人間の顔認識でもそうだし、何か機会に
     やらせようとすると難しい所があるが、人間は簡単にやっているというような
     ケースがある。例えば野球でのフライの取り方。弾道計算とかはしてない。
     明示的にいうことができないことについて一つずつ掘り起こしていったら
     面白いのではないか。
    
    


    一般セッション: 一般物体認識

    • A Semi-Supervised MarginBoost Algorithm Applicable for Dissimilarity-Based Classifications
    • マルチモーダル入力に対応した重み付き多数決による識別器
    • PatchMatchを用いた類似パッチの高速KNN探索法
    • ここまで立ち見でメモできず

    • SIFT特徴量の共起を用いた一般物体認識手法に関する基礎研究
    
    Q: 一般物体認識で領域を分けるという話があったが、
     PASCALデータセットからの領域切り出しはどうやっているのか。
    A: データセット内にマスクが含まれており、これを利用した。
    
    Q: モデル1と2の違いが良く分からなかったが、
     SVMで学習するための特徴ベクトルの作り方が異なるのか。
    A: SVMでの学習は行わず、ヒストグラムでの尤度判定、
     多数決程度の処理で判別させている。尤度なりを学習させていくことは検討中。
    
    Q: 領域毎にSVM、もしくはヒストグラム化したのをSVMでそのまま学習
     させるとどうなのか。
    A: 試行実験では認識率が低かった。学習時に領域切り出しはできても、
     認識時には画像全体で特徴量を構築する必要があり、
     そのミスマッチが大きく影響していると考えられる。
    
    
  • 3次元特徴量を用いた構造表現による一般物体認識
  • 問題意識:SIFT+BoFでは位置情報や関係性が失われてしまう
     デプス情報を用いた3次元グラフ構造表現
     D-SIFT→グラフ化→グラフ編集距離→識別器
      濃淡画像をモノクロ変換してSIFT
      3次元グラフ構造表現
       近接グラフ、疑似階層グラフ
      グラフ編集距離
       Q: 各編集コストはどう調整する?
    
    
    Q: どのぐらい時間がかかるのか? 例えばリアルタイム処理可能か?
    A: 普通のPCで半日程度。
    
    Q: 最初の発表におけるDissimilarityを使うということに近いように思うが。
    A: リンゴと桃、オレンジのように形上はほぼ違いが無い。
     それを区別できるように導入してみた。
    
    Q: 距離が合っていれば形状が正しいと考えて良いか。
    A: 必ずしも正しいとは限らない。
    
    Q: グラフ編集距離の求め方は?
    A: D-SIFT上で一定値を設けて近さを求めている。エッジの計算に時間がかかる。
    
    Q: D-SIFTはダメだという話なのか、物体の形状依存なのか。
     SIFT等と組み合わせて使うと良いとかありそうか。
    A: SIFTでは取れる(区別できる)ケースでも、D-SIFTではうまくいかない
     ケースがある。デプス情報からSIFTを取ること自体がおかしい可能性がある。
    
    
  • 移動ステレオカメラ画像中からの移動物体抽出と三次元データのセグメンテーションの検討 -SIFT特徴点を元にした前景・背景のエネルギー関数を組み込んだ手法の提案-
  • 問題意識:より頑健な(様々な状況に対応できるorより制約の少ない)移動物体抽出の必要性
     セグメンテーションの精度向上
      TMRによる動物体領域抽出
      複雑な物体:アフィン変換→Feature-Cut
    
    
    Q: 従来失敗していた原因と、それが成功したのは何が効いていたのか。
    A: Feature-Cutによる
    
    Q: 動画の背景が白く、セグメンテーションとしては簡単にやれそうな実験。
     従来法は、何故グラフカットに失敗しているのか。背景全体をシードにするのではなく、
     forground の外側をシードにするとやれるのでは。
    A: 考えてはいるが、形状にも依存してしまうため難しそう。
    
    Q: 今回の実験ではアフィン変換でも良さそうだが、ダメなのか。
     またより複雑な、実際アフィン変換では難しそうなケースではどうなるのか。
    A: 試していないので分からないが、Feature-Cutが高精度なのでこちらを中心に進めている。
    
    
  • 局所的色彩モーメント不変量で構成したベイジアンネットワークによる画像照合
  • 問題意識:似た特徴を持つ画像検索では特徴の選び方が重要
    局所的色分布特徴量
     RGB、色相関など
     色相関距離
     符号化
      Q: 単純な2値化の仕方としては面白いが、実際には統一ルールでは難しくない?
    照合エンジン(ベイジアンネットワーク)
     Q: ナイーブベイズと差が出てないのはどう解釈したら良い?
    
    
    Q: 部分画像集合の特徴値分布を使う考え方はうまくいきそうに思えるが、どうやっているのか。
    A: (再説明)
    
    Q: 特徴量の分布状態を評価していることに相当する?
    A: 計算した統計量から特徴値を2値に評価しているだけ。
    
    Q: 問題設定について。全く同じ写真を探したいのか、同じ被写体を探したいのか、同じ種類を探したいのか。
    A: 同じ種類のものを探したい。
    
    
  • 画像を用いた物体の詳細情報認識手法
  • 問題意識:物体とその物体の詳細を認識させたい。e.g., TV+電源ボタン
     詳細部分:人間が直接操作を行う部分
    
    
    Q: 位置情報を用いて補正する場合の基準となる減点は、特定の一点を使っている?
    A: 既に特定された部分で、かつ、一番近い場所を捜査して推測する。
    
    Q: 例えばキーボードの場合は多くのキーがある。文字認識が間違ってるやつもあるが、それもそのまま採用してしまう? 正しく認識できたものだけ利用するとかなり精度向上すると思うが。
    A: 今は採用してしまうが、検討中。
    
    Q: 無料OCRでGoogleのものがあるが、今回商用を採用したのは精度の問題?
    A: Googleは比較はしていないが、比較した中で精度の高かった最新版を採用した。
    
    Q: OCRソフトは想定している利用状況にも依存しそうだが。キーボードやるならキーボードの辞書使うとか。
    A: 文書対象なので文書だと前後の文字から補正することも可能だが、今回はそういった補正が効かない。そういった方向も考えてみたい。
    
    Q: リモコンの場合でもキー番号が独立して配置されているが、文字と文字の間に意味があるケースだとOCRの精度が高くなるのか。
    A: 高くなると考えている。
    
    Q: 文字を基にマッチングを行っていて、SIFT特徴量等で使われている幾何的な情報が使われていないが、そういった情報を使ってみても補正しやすくなるのでは。
    A: 試作中だがまだ検討段階。
    
    

    情報工学科新入生歓迎LT祭りを終えて(真面目な回答編)

    土曜日, 4月 23rd, 2011

    学生主催の情報工学科新入生歓迎LT祭りが終わりました。プレゼン資料もUstream録画もそこにリンクが掲載されていますので、今回来れなかった学生はちらほら眺めてみると良いんじゃないかと。

    LT(ライトニング・トーク)というよりは、ライトなトークでお祭り騒ぎという感じでしたが、こういうのもやって見ると良いんじゃない?ということで特にコメントとかせずに「がんばれ〜」と応援だけしてました。お疲れさまでした。>主催者及び関係者の皆さん

    テーマがあやふや過ぎて新入生固有の話って実は殆どなかった気もするんですが、それも加味しても初めてこういう場に参加する学生に取っては一つの切っ掛けとしてフラグ建てることが出来たんじゃないかと期待します。

    私自身発表依頼が届いて発表する立場になってしまいましたが、ま、たまにはこういうのも良いか。ということでThink, Act and Shareというタイトルで発表したわけですが、発表時間をあまり気にしていなかったこともありスライドの半分ぐらいでタイムアップという体たらく。ごめんなさいw
    
時間不足過ぎたのでQ&Aでも一言で答えられるネタ回答をして済ませたのですが、真面目な回答は以下のようになります。

    Q: 1万時間の話があったが、何か1万時間かけたものは?

    A:
     学部生の頃、特に研究室配属前は正直「何となく面白い」ぐらいで真面目に課題やるぐらいの時間しかかけていませんでした。なのでそれ以外の時間はゲーム三昧。
     研究室配属後は文字通り朝から晩まで研究室にいて、土日も研究に打ち込んでいました。あまりにも楽しかったので。ゲームもこの頃からはほとんどやってなく、研究室の先輩から教えてもらった Diablo をたまにやるぐらいしかやってません(でもやってたという話ではある)。
     単純計算すると8hours/1dayぐらいは普通にやってたので、B4の1年間(300日換算)でも2400時間ぐらい。一度4,5ヶ月ぐらい本気で毎日やり続けし過ぎてしまい、居眠り事故やっちゃってからは休日も取るようにしたなぁ(遠い目)。
     このぐらい集中して時間を支払えるのも楽しいと感じるぐらいやり込んだから、B4の間に学外発表3件やってたし、それ以降も年3件ぐらいは普通にやってた。博士号取るまではずっとそんな調子だったので、単純計算すると

    2400時間*(B4+M1+M2+D1+D2+D3)=14,400時間

    ぐらいで、余裕で1万時間以上注いでますね。研究に打ち込むかどうかは置いといて、そのぐらい時間を支払えるぐらい楽しめるものを探した方が、人生楽しめますよ。

    ま、私の発表はお座なり具合は置いとくとして、記事にも書いてた「裏テーマ」として伝えたかったことの下記2点が、学生発表から出てきたので発表前に満足しきってました。

    ・好きをモチベーションに。(Like by Shou KYUSHIMA)
    ・就職そのものは目的ではない。やりたいことをやれる場所を探すのが良い。(就職活動って何するの? by Tomonori ARAKAKI)

    直接伝えたかったものがこういう言葉というわけではないですが、根っこは似たようなことで「好き」とか「やりたいこと」が無いと人生楽しくないと考える人なんです。私は。こういう「好き」とか「やりたいこと」を通して社会と繋がることで、自然と就職なりに繋がらないと数十年働くなんてやってられないと思うんですよ。少なくとも私は。

    東北関東大震災とソーシャル・メディア(ショートバージョン)

    月曜日, 3月 28th, 2011

    学科システム落ちてる間にmixiに投稿済みの内容ですが、学生向けという意味でここでも紹介。

    ほんの少ししか手伝いできていませんが、ANPI NLP というプロジェクトを通したボランティア活動をしました。某所への寄稿したものなので、ここでは圧縮してかいつまんで紹介してみます。いろんな支援の仕方があるよね、という意味を込めて。


     ほんの数年前までのソーシャル・ネットワークでは人間関係を構築する場といった側面が強調されていましたが、今回の震災を切っ掛けに、緊急を要するタスクとして認知し合った人らを中心として繋がり、互いに知識やデータを提供し合い、タスクを分割して協力するといった具体的な活動を行う場やその活動を支援する場(ソーシャル・メディア)としても有効に機能し始める時代へとなってきました。

     活動の一例として、Googleのパーソンファインダー(消息情報)。
    (*1)Google Person Finder (消息情報): 2011 東日本大震災
     http://japan.person-finder.appspot.com/

     パーソンファインダーは、インターネットを介した人海戦術によるアプローチ。これ以外にも、専門知識を有する人らがプロジェクトとして協力し合う活動も現れました。

    (*2)ANPI NLP (東日本大震災のためのデータマイニング・自然言語処理に関する情報のページ)
     http://trans-aid.jp/ANPI_NLP/
    (*3)sinsai.info (東北沖地震 震災情報サイト)
     http://www.sinsai.info/
    (*4)Twitter 上の大震災関連「救命・救助要請情報(#j_j_helpme・#311sppt 関連)」要約 & 通報支援サイト
     http://www.selab.cs.tut.ac.jp/~aida/
    (*5)東北関東大震災 安否情報 横断サーチ
     http://trans-aid.jp/ANPI_IR/ja/

     (*2)のANPI NLPでは、楽天技術研究所(以下、楽天技研)の萩原さんの声かけにより主に自然言語処理やデータマイニングと呼ばれる分野で活躍している専門家が集い、「Twitterなどから得られる安否確認情報を照合、更新することでPerson Finderの情報を充実させること」を大きなタスクとして取り組まれています。

     そもそもの始まりは、楽天技研の萩原さんによるツイート「こういう緊急時にも自然言語処理が役に立てることはたくさんある。(中略)特に今必要性が高いのは名寄せ技術だと思う。被災者・安否不明者の表記揺れに困っている自治体とか多そう。」のようです(*6)。

    (*6)言語処理屋さんが連携していく様子
     http://togetter.com/li/111529

     このツイートを切っ掛けに、
     ・Google日本語入力Mozcを開発されている工藤さんがデータ提供。
     ・地震を含むツイートを収集していた大阪大学の松村先生からデータ提供。
     ・京都大学のGraham Neubigさんから人名・地名モデルの提供。
    といったアクションが高々数時間のうちに行われました。このスピード感で進む様子を受けての判断だったのだろうと想像しますが、翌日になる3月15日にハッシュタグ #anpi_nlpとしてTwitter上の情報集約が開始され、加えて情報通信研究機構の内山さんからの提供によりMedia Wiki上での整理が始まりました。切っ掛けとなる最初のツイートから僅か1日後のことでした。

     こうしてANPI NLPが始まり、前述の目的を達成するためのタスクが用意されました。ここで用意された当面のタスクとは、地震関連のツイートデータ約6万件が既にあり、これらのツイートが「安否情報を含んだツイートなのか(もしそうなら人名や地域名がどこに記述されているか)」「救助要請を含んだツイートなのか」「関係のないツイートなのか」といったことを人手で判断し、目印を付与するというものでした。この目印を付与するという作業は、直接的にはコンピュータで処理しやすくなる(パーソンファインダーの情報と照合しやすくなる)というのが利用目的になりますが、それだけではなく間接的な効果にも期待しての人海戦術でした。

     この間接的な効果の例として、分類器の構築があります。分類器とは、入力されたツイートを「安否情報を含んでいるツイートか/そうではないのか」といったYES/NO形式で分類したり、「生存を確認したツイートなのか/死亡を確認したツイートなのか/安否確認の情報を求めているツイートなのか/それ以外なのか」といった複数選択肢のどれに該当するかを自動で分類してくれるシステムのことです。もし、現時点でのツイートデータ6万件についてのみ処理したら全てが終了するというのであれば、全てを人手で処理することも考えられますが、実際には関連ツイートは日々収集され続けます。それら全てを人海戦術で判断するのは事実上不可能のため、少しでもその手間を和らげるために自動化しよう。その自動化をするための技術として、人手で付与した正解データ(分類結果)から「どのように分類するのが最も妥当か」を自動で学習する技術である分類器を使おう。こういった効果を狙っての試みでした。

     3月24日現在では、当初の目的であるパーソンファインダーへの寄与に関しては楽天技研を中心として続けられ、それ以外の災害支援タスク(安否情報ツイートと避難所を関連づけるタスクや、外国語に機械翻訳するといったタスク等)についても提案され、少しずつその結果が出始めているようです。日々更新されている状況ですので、詳細はANPI NLPのサイト上にてご確認頂ければと思います。

     以上、ソーシャル・メディアを通した活動例を紹介すると共に、自然言語処理屋の皆さんが構築されている成果物を利用している一人としてANPI NLPに賛同し、関わった活動内容の一部を紹介してみました。この活動が震災支援の一助となれば幸いです。

    NLP2011, 併設ワークショップ「自然言語処理における企業と大学と学生の関係」に参加しての感想

    日曜日, 3月 13th, 2011

    細かいメモもありますが、togetterによるツイートまとめ(午前午後)に譲るとして、ここではパネリストによる意見の中をグルーピングしつつ、感じた感想を述べたいと思います。グルーピング次第でどうにでも取れる文面もあるので、実際にどういう流れで討論されていたかは前述のtogetter見る方が良いでしょう。

    まず前提その一として、今回の討論は「何かを決めよう」ということは目的にされていません。互いに意見を主張し合い討論することで多くの視点や意見をアウトプットすること自体が目的のようです。
    その二として、タイトルに「自然言語処理における」とあり、確かにそういう側面の話も含まれていたのですが、結果としては分野に囚われない一般的な話が多かったように思います。
    その三として、そこが削れたためか、就職活動に関連した話題が多かったです。
    その四として、往々に起こる状況と思いますが、「声の小さい学生」の話題が少なかったです。
    これらのことを踏まえて、企業・大学・学生の三者がどのように考えているか、という議論についての感想になります。

    目次


    超約

    • 自分で考えて行動しよう。行動しないことには何も得られない。
    • 行動した結果失敗したとしても、大した事なく済むことが殆ど。失敗してそこから学び、次ぎに活かそう。
    • 強い動機を持って行動する人には手を差し伸べようとする人が多い。公開し続けていれば仲間が増える。
    • 具体的に行動する(e.g.,対面する)のを躊躇してしまうのだとしても、メールやツイッターみたいなカジュアルなツールならそうでもないのでは? 手段は豊富にあるのだから自分にあった方法で行動しよう。

    読誦論

    • 基礎か、応用か、悩んでいる暇があったら基礎を身につけよう。
    • 読誦すべき。何をやったとしても局所解に陥らないことを保証することはできない。読誦し、いろんな視点を得よう。
    • 読書は大切だが、優秀過ぎて「簡単に読めてしまう」のは少し問題。時間をかけて向き合うことで読み解けるものもある。相手の求める速度に合わせて読もう。
    • 本を捨てて街に出る(行動す)べき。勉強/努力することは大事だが、全て万全に整うまで挑戦/行動しないというのでは時機を逸することが大半。行動し、失敗しながら学ぼう。若いことはそれだけで勝っている。失敗しても大したことが無いことが大いし、若いうちの方がやり直す時間が多い。
    • 面白いことを見つけよう。学生なら教科書、論文、書籍、ネット、友人、先生、両親あたりが多いだろう。企業では、例えば、リアルデータ、異分野異業種、多様な現場といった「知らない所」からも見つけている。
    • 違和感を感じるためにも外(専門外の専門や、学外)に出よう。初めての体験をすることで感じる違和感は想像の種になる。

    大学論

    • 目的次第になるが、中途半端に企業に歩み寄っても、企業/大学/学生三者にとって不幸になることがあり得るのでは。大学はどうあるべきかといった理念・目標を見据え、行動すべきだろう。
    • 大学でないとやれないことは何か、と突き詰めるのも一つの道。
    • 古い技術を工夫して具体的な応用に結びつける所も大切なこと。ただし、大抵の「やってみた」レベルのことは企業でもやっている。大人の事情で見えないだけ。努力しよう。高度に知的な作業が努力である。
    • 企業/大学の双方にとって有益な紳士協定なりの協力の仕方もあるだろう。例えば、大学ではコア部分(差別化)を作成し、企業ではリスク部分(大きなエラーはぜ絶対に起こさない)を構築するなど。対価として金銭的なやり取りだけじゃなく、データやノウハウでの交換等柔軟なやり方が考えられると思う。

    企業論

    • データを出して欲しいとか言われるが、具体的にどう役立てたいからどういう切り口で取得したデータが欲しいのか、明示して欲しい。持ってるもの全てと言われても、基本的に持ってるデータはこちらの意図で収集したもので、それがマッチしているとは限らない。
    • データと向き合うことで真実を探るというスタンスも良いと思うが、データを蓄積するというのはコストがかかるということ。タイムライン的に見返りが得られる等の説明ができないと、データを出すよう説得するのも困難。
    • そもそも「本当に解決したいこと」があるならデータが出てくるのを待つのではなく、企業に来てやるという選択肢もある。何故そうならない?
    • 企業にもいろいろあり、自社ではデータを持たず、大学より大学らしく活動している所もある。

    学生論

    • 地方の学生は東京と比べて勉強会自体の機会が少なく、選択肢以前の問題。
    • 逆説的だが、お膳立てされてる環境では学べないことも多くある。主催することで学べることも少なくない。それが何かに役立つとは限らないが、身に付くものはある。
    • 言われたことをやるだけの人材は要らない。例えば「一見完成しているように見えるサービス」から課題を抽出し、それにどう取り組むかを考える力が必要。それらは一つ一つの課題に丁寧に取り組むことで身に付く力なはず。一つの専門分野で解決できることも年々減っているので、いろんなことに興味を持って取り組もう。
    • アメリカにインターンに行った経験からすると、TG(学生なら誰でもFreeDrinkFreeFood)など企業の方と接するカジュアルな場がちょくちょくある。日本でももっと用意して欲しい。
    • (プチ)ロールモデルになる目標になる人を探し、そうなるよう努力しよう。全てが困難なら一部でも良い。
    • やってることを分かりやすく公開しよう。公開手段は豊富にある世の中になった。
    • 就職するときというのは、自分が何をやりたいかというのがまだ見つかっていない状況かもしれない。しかしだからこそ、興味ない会社でも良いと思うから、会って話をすることが大事。まとめて話せるようになることによって自分が見えて、自信が生まれてくるのだと思う。
    • 学生の頃、入社した時点では良くも悪くもぱっとしなくとも、入社後に光り輝く人材も少なくない。それまで見えていないだけだったかもしれないが、具体的な問題に対面することでモチベーションを持って取り組んでいるからかもしれない。こういう人材をどうやったら探せるのだろうか。
    • 友情(一人でできることなんてたかがしれている。一緒にやる人を探し互いに助け合う。信頼関係)、努力(努力せずにやれることはどこかで既にやられている)、勝利(小さくていいから目標を決めて、達成する。それを徐々に上げていき繰り返す)!
    • 今は、効率とかそういうのが求められていて、車輪の再発明は怒られることが多い。ただ個人的には良いと思っていて、学生には再発明で良いからどんどん人の真似をして欲しい。やってみて初めて見えてくるものがある。

    リスク・テイカー論

    • リスク・テイカーになろう。そのための教育というのはあるのだろうか。
    • そもそも「何もしない」という大きなリスクを選択していることに気づこう。
    • 「リスク=自分の何かを犠牲にすること」ではない。好きなことに没頭してやっていることが、他人から見ると結果的にリスクを選択していたということが少なくない。好き勝手にやろう。
    • 外に出ない学生は危機感が欠落し過ぎ。中国も教育レベルは向上しており、国際全体が競争相手の世の中に突入するのは目前ということに気づいていない。例えばスタンフォード大で大挙して留学に訪れ「俺ここで学ぶんだぜ!!」と熱意を持ってる学生の割合は年々増加している。日本人もいないわけではないが、少ない。一度は留学なりで外に出よう。
    • 日本に留学に来ている身としても実感しているが、留学するリスクは比較的得られるものが多く、積極的に取るべき候補だと思う。
    • 優秀な学生とか何とかよりも「やったか」「やらなかったか」。失敗してもそこから学べば身になる。

    就職活動論

    • 学生は何故ここまで凝り固まった考え方/アプローチの仕方を選ぶのだろうか? 就職活動時期を柔軟にして欲しいとの声もあったがどちらかと言うと紳士協定があるから「新卒採用枠」を一定の時期に設けているだけで、そこに拘っているわけではない。むしろ今なら中途採用の方が見てもらえることの方が多い。中途採用以外にもいろいろルートはあるが、一般的なルートでないところを強行突破するにはそれなりの「何か」は必須。強者論の話。
    • 今回のワークショップに学部生も結構参加してくれていることは素直に喜べる。だけど、懇親会で企業の人から名刺貰った人はどれぐらいいる?勉強会でも何でも良いから、切っ掛けがモノにする努力をするべき。自分から声をかけ難いなら先生に取り次いでもらうのも良いだろう。
    • 一方で、いろいろお膳立てしてもらわないと動けないという学生は、就職後に本当に役立つのだろうかという不安を感じている側面もある。本当にやりたいことがあるなら、学会でも良いし、ブログなりツイッターなりカジュアルな方式でも良いからどんどん学外/企業/世間に向けてPRするべき。情報発信する努力をしない人は、そもそも企業からは「見えない学生」。
    • 就職すると縛られてやりたいことがやれないとか考える人もいるかもしれないが、就職してみた立場としては案外そうでも無いなという印象。見えないから分からない、だから何となく不安というのであれば、会社見学でも勉強会でも今回のようなワークショップでもイベントをセッティングして呼んでください。企業は忙しいからイベントをセッティングするまでやるのは大変だが、呼ばれれば喜んで行く所が多い。

    インターン論

    • 企業を知る一つの方法。
    • インターンは数ヶ月以上長期のものがベターだとは思うが、それ以上に大切なのは「インターンで何かを持ち帰る」という強い意識。目的が不明確なまま来ても身に付かない。
    • 留学兼ねて海外インターンもある。最低限の英会話は必要だが、それ以上にモチベーションが重要。世界各国からインターンに来る学生らとどう絡むか。積極的に交流する努力も大切。
    • インターンに行ったことは無いが、学生と企業の関係にもいろいろあるのでは。

    関連リンク