オープンソースカメラ


 デジタルカメラ・ビデオにLinuxを積んで、撮影制御や画像処理を全部オープンソースでやってしまおうという話があるらしい。スタンフォードの院生を中心としたプロジェクト。



(Open-source camera could revolutionize digital photography Stanford University News)


 絞りやフォーカス・解像度の制御からフレーム取得後の画像処理まで、全部プログラマブルにしたカメラ・ビデオを作ろうという話。既存のカメラだと、カメラメーカーが対応チップやソフトを載せなかった、あるいはそもそもカメラ設計時には技術がなかった等の理由で数々の撮影技術が使えないことがあった。このオープンソースカメラなら、自分もしくは世界中の誰かが書いたソフトを適宜カメラにインストールすることで、自分の目的に特化した/最新の撮影技術が使えるようになる。


 すぐに実装出来そうな撮影技術の一例として、いわゆるHDRI(High Dynamic Range Imaging)などが挙げられている(下図)。もちろん手動・後処理でなら今でもHDRIは実現できるけれど、カメラに内蔵・自動化することで誰でも手軽に使えるようになる。あるいは「HDRI動画」なんてのは既存の民生機器では(たぶん)実現不可能だけど、オープンソースカメラがあるなら誰かが試しそう。


http://randyhufford.ivamaui.com/wp-content/uploads/2009/08/SampleHDRarch.jpg
(High dynamic range imagingの一例。露出を変えた写真を複数枚撮り(左)それらを合成することで通常の写真よりもはるかにダイナミックレンジが広い画像(右)が得られる。Randy Hufford's Digital Photo Newsより)


 カメラ本体に一定の計算能力を持たせて内部処理させてもいいし、ネットワーク経由でより計算能力の高いコンピュータ等にデータを送って高度な処理をさせる(さらにその情報を撮影にフィードバックさせる)こともできる。これによってSIGGRAPHなんかで発表されている最新のものすごい画像処理技術とかものすごい手ぶれ補正技術なんかもすぐに試せるようになるかも。あるいはSIGGRAPH発表のついでに発表者がソースも公開して、あなたのカメラで即座に最新技術が使えます、という未来が来るのかもしれない。


 これまでも主に研究者向けの製品としてCCD/CMOSで取得したデータを直接PCに読み込めるようなカメラはあったのだけど、価格的にも動作条件的にもあまり一般的とは言えなかった。このオープンソースカメラが民生機器として大量生産されるなら、もっとカメラ・ビデオが手軽に遊べるものになりそう。カメラの進歩の方向性としてとても合理的だと思った。

はいはいする双子


 うちの子の定期検診に小児科医院に行ったところ、1歳過ぎの双子の赤ちゃんとそのお母さんが来ていた。双子はもう相当にはいはいの達人になっていて、お母さんがちょっと早足で歩かないと捕まらないぐらいの速度で動き回っていた。


 問題は、たまに彼らが互いに真逆の方向にはいはいしていくことで、こうなるとお母さんはほとんど全力で走らないと彼らを捕まえることが出来ない。お母さんは


"Crawl in the same direction!"
はいはいは同じ方向にしなさい!


と叫ぶのだけど、もちろん1歳児がそんなシュールで高度な言いつけを理解するわけもない。相変わらず満面の笑みを浮かべてあらぬ方向に走りさっていった。


 双子を持つのは楽しそうだけどかなり大変だと思った。


参考資料:「全輪駆動」モードで疾走する11ヶ月の赤ちゃん



 赤ちゃんが基本動作を覚えるところを観察したり、個体毎のばらつきを見たりすると、どうしても中野・銅谷らによる往年の強化学習ロボットのことを思い出す。本来は逆であるべきか。

科学者とマスメディア

 今日の漫画。SMBCより。


http://zs1.smbc-comics.com/comics/20090830.gif


 あるあ・・・る?




 以下雑感。


 科学者が常態として行っている対話は(1)文脈をほぼ完全に共有した同業者と(2)特定の事象それ自体についての理解を深めるべく行うものであって、科学者はこの種類の対話に関して膨大な訓練を受けている。一方で、記者との対話は(1')ほぼ共通の文脈を持たず(2')事象それ自体よりもそれが社会にどういう影響をもたらすかという一側面(のみ)に着目したいという動機の元に行われるもので、そこで必要とされる能力は本業で必要とされるそれと全く異なる。自然状態で後者が不得手な科学者が多いのは必然だと思う。


 科学者/記者間のコミュニケーションの出来不出来は双方の訓練具合に依存する。個人的には、本業としてそういう種類のコミュニケーションをするべく専門的な訓練を受けた(はずの)記者側にもっとがんばってほしいと思うのだけど、今後はそうとばかりも言っていられなくなるのだろう。でも例えばさすがに統計の知識が高校生レベルの記者なり記事なりを見かけると(平均と分散ぐらいは知っている。ユーイサって何? 呪文?*1)、ちょっと萎えるというか途方に暮れる。

*1:いや実際呪文みたいなものかも知れないのだけど。

3次元手ぶれ補正(知覚補正付き)


 (ちょっと遅ればせながら)今年のSIGGRAPHで発表された手ぶれ補正アルゴリズムは面白いと思った。素人が撮ったぶれぶれのビデオを後からソフトウェア的に修正してくれるというもの。ウィスコンシン大学とアドビ社の共同研究。



Content-Preserving Warps for 3D Video Stabilization
Feng Liu, Michael Gleicher, Hailin Jin and Aseem Agarwala
SIGGRAPH 2009


 枠組みとしては、まずビデオ動画から特徴点抽出を行い、3次元的なカメラの動きの情報を得る。そこからカメラが理想的な(ぶれぶれでない)軌跡をたどったとしたら見えたであろう景色を再構成するべく、画像を局所毎にリマッピングしよう、というもの。ただし単純に再構成だけを考えてリマッピングすると情景自体が変わる部分(被写体が動いて隠蔽箇所が変化する等)が変になるので、

  1. 3次元再構成的に正しいと思われる変換に出来るだけ近づける。
  2. 情景の局所構造(とくに知覚的に目立つ部分)を出来るだけ歪ませない。*1

という2つの目的関数を設定してその和について最適化を行った、と。


 目的関数をうまいこと設定してやることで最適化を単純な行列演算に帰着させている(この場合は逆行列を求めるだけらしい)。これは見通しも良いし既存の最適化された演算手法をそのまま利用できるという意味でもとても良いやり方だと思った。特徴点抽出はすでにiPhoneレベルでも出来ているようだし、そのうちビデオカメラがこれをやりだすのかもしれない。

*1:この部分はTeddyの五十嵐さんが開発したアルゴリズムを利用しているらしい(Igarashi et al. 2005)。これも面白そう。

赤池氏永眠

 AIC赤池情報量規準)の赤池弘次さんが亡くなったらしい。享年81歳。日本人の名を冠した業績で、これほどよく利用されているものを他に知らない。

 ちょうどラボに遊びに来ていた統計の院生(イスラエル人)がAICを使ってL0ペナルティの実装云々という話をしていたので、その赤池さんが先週81歳で亡くなったんだと言うと、「若っ!」と言って驚いていた。ちょっと不思議な反応ではあるのだけど、重要な業績を残した人は昔の人に思えるという感覚は判る。

訃報: 「AIC」を編み出した赤池弘次氏 (元統計数理研究所長) が死去


===

 数理統計の人は業績に人名をつけるのが好きなような気がする。概念を簡潔に形容しがたいから、ということも関係するのだろうか。ベイズ推定もフーリエ変換も元々は人の名前。でもこのレベルになると単語自体が個人名を離れてある種のクオリアをまといだしているようにも思う。フーリエの頭文字がFだったのも歴史の偶然ながら連想記憶的な意味で良いことだったと思う。

 母国人の名前だったら名前そのものの語感を払拭するのは難しいだろうか。「徳川推定」とか「綾小路変換」など。


===

 神経科学者はあまり業績に人名をつけることを好まないようだ。シュワン細胞などが例外か。しかもヘブ則とは言うけどプー則*1とは言わないところを見ると、だんだんその傾向が顕著になってきているのかも。よほど新規性があってかつ形容しがたいことを発見しないと名前つき法則の栄誉を得るのは難しそう。

 「田中野で酒井・宮下連合が起きることを小川式共鳴法で調べられるかは藤田柱サイズでの効果が存在するかどうかに依る」とか言ってみる。この辺りの古典は日本人科学者の貢献が結構大きいと思う。

*1:サックマン則?

animate / inanimate


 高次視覚野細胞の反応を調べるに、モノを見たときに脳が一番気にしているのはそれがanimateかinanimateかということらしい*1。つまり、生き物(とくに動物)かそうでないか。


 同僚(英語話者)と昼ご飯を食べていたらその話になったので、そういえば日本語ではanimate/inanimateは非常に重要な区分で、言及する対象がどちらであるか判断してからでないとうまく文が作れないんだよね、と言うとちょっと面白がられた。


 つまり、beとかexistに相当する動詞として「ある」と「いる」があって、どちらを使うかは言及する対象が生き物なのかどうか、もっと言うと話者が生き物だと思っているかどうかによって決まる。面白いことにその中間はないので、日本語話者は常に「これは生き物なのか?」というちょっと哲学的な問いに答えることを強要されていることになる。英語ではニュートラルに「There is a robot.」と言えるけど、日本語では「ロボットがいる」と言うか「ロボットがある」と言うしかない*2。そこには既に暗黙の判断が含まれている。


 文法や単語の用法レベルで弁別を強要されるぐらい重要(?)なカテゴリー、という絞りをかければ、認知機能を研究するときにどういう刺激セットを使うべきかについてのヒントが得られるかもしれない。他にあまり例が思い浮かばないけど、英語だと単数か複数か、等々。



 ASIMOは、いるだろうか、あるだろうか。細菌はいる。ウイルスはいる(?)。草花はある。単離神経細胞はある。脳みそはある。赤ちゃんはいる。胎児はいる。受精卵はある(?)。卵子はある。精子はある(?)。死体はある。ゾンビはいる。脳死した子どもは、あることになったらしい。

*1:Matching categorical object representations in inferior temporal cortex of man and monkey. Kriegeskorte et al. Neuron 2008 Dec 26;60(6):1126-41.

*2:「ロボットが存在する」とも言えるけど、少なくとも話し言葉としては不自然に聞こえる。

レーザーディスプレイ


 三菱がレーザーディスプレイを出したらしい。

http://laservuetv.com/img/laservue_gallery/laser_detail_05.jpg
(Mitsubishi Electric LaserVue)


 レーザーなので綺麗に単波長(上が LaserVue で下が普通の LCD)。

http://hdguru.com/wp-content/uploads/2008/10/mitsubishi-laservue-l65-a90-sprectal-output-410.jpg

http://hdguru.com/wp-content/uploads/2008/10/mitsubishi-samsung-ln46a860-spectral-output.jpg
(HDGuruより)


 色の研究をするときには、こういうデバイスを使えたらややこしい補正をしなくて済んで良いかも。65 インチで $6999。