くまりゅう日記

もっと過去の日記
[.NET | BeOS | Blender | COLLADA | fossil | mono | monotone | NPR | OpenGL | PeerCastStation | Riko | Ruby | Silverlight | TRPG | XNA | ゲーム | ゲーム作り | プログラム | | 模型]

2009-12-22

_ そうだ日記を書こう

日記を書こうと思いたった。

今まで書いてたこれはなんなんだよという話ではあるが、どう考えても毎日書いてるように見えないのでこれを毎日書きたい。 毎日書くことでいかに日々のんべんだらりと生きているかを自覚するのである。 というわけでもないけど。ただ今日やったことをちゃんと書いておくのはいろいろいいと思っただけ。

日記は完全に自分以外が見てもわからんこと書いてるかもしれません。あ?いつもか。

_ 日記

配信しようかと思ったけど、やっぱり配信でできない作業をやろうと思い直す。

KeyRemap4MacbookをiMacで使ってるんだが、これでマウスの5ボタンを中クリックにリマップしたかったのでその作業。ソースを落としてきていじるだけ…ってドキュメント見たら以前より超簡単になってるな。xmlいじってビルドするだけかよ。

やったら思ったとおりマウスのボタン5なんて知らねーよとエラーが出たんでヘッダに定義を追加。マウスボタン処理してるところも探したがすぐにみつからなかったんでまあいいやとビルドしてみたらちゃんと動いてしまった。なんてらくちん。

あとUSB Overdriveも入れてたんだがこれいらないので外そうと思ったらユーティリティ下に入ってるアンインストーラが起動しない。なんの嫌がらせだよ。

コンソールを見たらなんかmain.nibが読み込めねーとかなんとかエラーを吐いてたので、appを開いてJapanese.lprojだかなんだかをリネームしたら動いた。日本語リソースがだめらしい。まあせっかく動いたんだけどアンインストーラなので消すんですけどね。

あと眠いのでちょっとふとんに潜り込んだら3時間程ドリームランドに行っていた。ただいま。仕事遅刻です。

_ SIGGRAPH ASIA 2009続き

2日目午後から。

そのまえに昼飯だけど、近くで食おうとしたらどこも混んでてこまった。午後は2時からなので1時くらいから飯食うことにして展示の方をさらっとみたり。なんかIVR展っぽい感じだった。もっとCG寄りだが。

Storeで何か買おうかと思ったが、何を買えばいいのかよくわからなかったので一旦退散。Full Conference DVDには何が入ってて何が入ってないのかと。

あとはコースのCast Shadows in Real Time。前半はなんで影が必要かとかなんで難しいのかからハードシャドウ一通りまで。後半はソフトシャドウ。

ハードシャドウの方はなんとなくわかってる物が多かったから聞き取れた。でも実装はともかく中身がよくわからなかった所も聞けたのでいいね。資料もしっかりしてるのであとで確認しておきたい。というかもはや教科書だよねこれ。

後半のソフトシャドウはむずかしいお…。なんかほんとに難しくてよくわかんねぇ。あとで確認する要確認。結構重そうなことやってるなーとは思ったが実際まだまだ重いようだ。

そんな感じで2日目は終わり。帰ってからDVDの中身確認した。どうもアニメーションのDVDは別に買わないといけないらしい。あと3枚目と4枚目のDVDがMac標準のDVDプレイヤーで見れないんだがなんでだこれ。VLCで見れたけど。

3日目。今日は午後一杯でAnimation Theaterに篭ることに。午前はTechnical Papers。Lighting&Materials。

Printing Spatially Varying Reflectance。BRDFのキャプチャーなんかの入力は進んでるけど出力が画面しかなくてしょぼいよね。なので印刷できるようにしてみました。ってやつ。BRDF計測済みのマテリアル(インク)をディザリングで合成して思ったような出力に近付けようというお話でした。話は分かるがテカテカした物をどうやって印刷するんだと思ったら案の定MD-5500が出てきた。ですよねー。

Interactive Reflection Editing。物理的に正しい反射をすると正しくはあるけどいい感じの反射してくれないんだけど反射方向いじりたくね?ってお話。2点を指定するといい感じの方向を見てくれる。ユーザーインターフェースというか編集の仕方の話だった。テカテカ。

User-Assisted Intrinsic Images。写真を色成分を陰影成分に分けていじりたいんだけど自動ではきつい。なのでユーザーにちょっくら指定してもらって半自動で分けるようにしたよ、というお話。陰影成分とか分けられるのはいいねと思ったんだが結果を見てなんか変だなと思ったとおり、現状は本当にしっかり分離できてるわけではないようだ。黒目が陰影成分として認識されちゃったりね。これは自動では難しいだろうな。

Webcam Clip Art: Appearance and Illuminant Transfer From Time-lapse Sequences。ある場所の写真に3Dモデルを合成したり、写真の一部の建物とかを他の写真に合成したいんだけど合成先と照明なんかの情報を一致させんの大変だよね。だから自動でできるようにしてみました。というお話。肝としては元の場面を単一の写真としてじゃなくてWebカメラから連続的にキャプチャしてきて時間経過による照明の変化をデータとして溜め込んだのでいろいろできるよ!というところ。世界中の公開されてるWebカメラの画像を10分おきとかにキャプチャしてるらしい。太陽の位置とかもわかるし、天候の変化とかも対応できる。すげーなこれ。

これが3日目午前のいっぱつめか。どれも面白かった。

次もPapers行った。Real-Time Rendering。これは難しそうな話ばっかりだなーと思ったがやっぱり難しかったよ。

Micro-Rendering for Scalable, Parallel Final Gathering。ぜんっぜんわからなかった。というか全く覚えてないので全然理解できなかったんだろう。えーと、えーと。いや聞いた覚えはあるんだが本当になんの話だか覚えてないんだわ…。リアルタイムでグローバルイルミネーションな何かなんだなぁとか重そうだなぁとかそんなん。重そうというか結構重かったんだっけか。

All-Frequency Rendering With Dynamic, Spatially Varying Reflectance。あ、あれー?これもなんだっけ…。なんかリアルタイムでBRDFの編集ができるようになうと嬉しいですよねーとかいう話だっけか?まあ結局理解してないってこった。

Depth-of-Field Rendering with Multiview Synthesis。これはわかったよ!Depth-of-Fieldなエフェクトはよくやるけど、インチキだと問題がやっぱり出ちゃうからもうちょい物理的に近い方法でやってやりましょうというお話。深度に応じてレイヤー分けしてレンダリングして、レイトレみたいなことやってやるとちゃんとそれっぽくなるよねという。なるほどー。意外と現実的な速度で動くようだ。あーこれ別なごにょごにょにも使えるな*1

Amortized Supersampling。え、えーとこれも…なんだっけ。真面目にSupersamplingすると大変重いので適当に上手いことはしょりましたというお話なのはまあ。その上手いことはしょりましたの部分が思いだせん…。この時間帯はだめだめだったなぁ。

ということで3日目午前は終わり。

昼にStoreに行ってなにか買う。いったらこれ見れと注文書を渡されるんだが、グッズはともかくDVDが沢山あって全然わからん。アニメーションシアターの奴が欲しいんだが微妙に名前が違う物がいっぱいあってわからないので何が違うんだか聞いてみると、一つは今年のセレクションDVD、一つは2009って書いてあるけど間違いで去年の奴、あとは売り切れっていわれた。先に言ってくださいよ!ということで今年のセレクションDVDとDigitalExperienceってな本とTOGを買う。会員価格計8200円。TOGが凶悪に重くて死にそうだ。

午後はアニメーションシアター。14時から18時までいると一通り見れるようなのでずっとそこ。しかし途中間髪入れずに次が始まるので席を立つ余裕もない。あと普通の部屋なので前に座らないと前の人の頭で見れないよ…。

アニメーションシアターは全部見れたものだと思ったんだけど、実はJ-Media Artsというジャンルだけ3種類あって日替わりなのでそのうち1種類しか見れなかったようだ。俺が見たのはArt & Entertainment。いかにもThe アート、というか理解できないというか、意味わからんというか、端的に言うと俺が見てもつまらんというか、そんなのが多くてつらかった。

他は概ねいいんですがやっぱり4時間座りっぱなしなのはけっこうつらいよね。

で3日目午後も終わり。

4日目。さすがに土曜日はやっぱり混むのかなぁ。と思ったらいつも通勤で混雑してた電車はがらがらだった。当然か。会場は結構人いたね。

朝はEmerging Technologyのセッション。

The Cubtile: 3D Multitouch Brings Virtual Worlds Into the User’s Hands。タッチパネルを5面貼った立方体コントローラとハーフミラーで自分の前3Dモデルが出てるようにみえる機器。直接3Dモデルをいじってる感じになれるらしい。実際触ってないのでアレだけど、5面タッチパネルはいるんだろうか。向かって反対側の面は普通操作できないんじゃね。

PUYO-CON。投げれる触れるコントローラ。やわらかいソフトボール大のまるいコントローラで中に圧力センサとか加速度センサが入ってる。のでにぎったり投げたりが取れる。しかしデモで残念だったのは当然期待されるぶん投げて叩きつけるという操作が無かったこと。やっぱり耐久性的に無理だろうか。ただ上に放り投げるとかだと普通の加速度センサだよな…。あと配信で話した時におっぱいコントローラ?って言われたんだが確かにそうだ。応用例として是非上げておくべきそれが無かったのは非常にざんね…ねぇよ!あと英語で下手なので日本語で発表しますってのは潔いがどうなのかと。

SixthSense: A Wearable Gestural Interface。胸からカメラとプロジェクタをぶらさげて、指にマーカーくっつければどこでもジェスチャーコンピュータという奴。しかしデモビデオがはったり効きすぎてて…というか明らかにこのシステムじゃ無理なこともやってますよね!というムービーで、どこはつっこんでいい場所なのかが分からなかった。あと壁に向かってプロジェクタ投影してジェスチャー入力ってすげー変な人ですよ!

Interaction Bar。まさかの発表者不在。飛ばされた。

Volume Slicing Display。東大の人が英語で発表。というかメインオーサの人が見つからないので自分がかわりにやります…ってかっこいいな。つかなんで発表者こんなにいないの!?薄い半透明の板の裏にマーカーがついてて、下に置いたカメラでその傾きとか位置をひろって、ついでに下にあるプロジェクタからその位置と傾きに対応した映像を投影するってやつ。好きに傾けたり位置を動かしてボリュームデータの好きな位置でのスライスが見れる。なんか発表は地味だけどすごいぞこれ。楽しそう。なんか頭部断面図ってのが楽しげではないんだがそこはまあデータを選べばいいわけで。

これのあとは、Technical Papersの3D is Fun。

Shadow Art。一見なんだかわからないが、光を当てると影絵が出てくる立体を作るためのシステムを作ったよというお話。2面ならまだわかるんだが3面いけるのがすごい。正面と左右ちょっとずらした斜め。出てくる影絵を3面分入力すると立体を計算してくれるんだが、まあ不可能な形はどうしてもあるわけで。そこは形をちょっと変えてなんとか整合性をとる。計算した立体は立体プリンタで出力するんだが、レゴでも組み立てられるように計算してくれるモードがある。しかし、影絵を出す立体を計算するのに1秒以下、レゴ用最適化するのに1秒以下で計算が済むんだが、実際組み立てるのに5人がかりで2回やりなおしつつ2日と半日かかったらしい。そんなにレゴ持ってないなーとかいう問題でも無さそうだ。

3D Polyomino Puzzle。立体パズルを自動生成してくれるシステムを作ったよというお話。3DモデルをPolyminoっつー言うなればテトリスのミノみたいなピースに分けて立体パズルにしてくれる。立体っていってもソリッドではなく表面に敷き詰める感じだが。ただ敷き詰めるだけじゃなくて、下から上に進むように組み立てられるようにする、順番が間違うと嵌まらないようなポッチをつけてちゃんと下から上に進めるようにするという感じでパズルとして遊べるように作られてた。れいによってうさぎさんがパズルにされてたんだけど、そのパズル普通に欲しいな。うさぎ。

The Graph Camera。ビューボリュームを変形させたりくっつけることで変な場所も見えるカメラ。話はよくわからなかったんだが、なんか複数のカメラのビュープロジェクション変換をかけてやればいいとかなんとか?確かにできそうな気もするが。何に使うかは微妙だが、まあインチキカメラは結構なんにでも使えそうな感じではある。なんかPortalを思い出した。

BiDi Screen: A Thin, Depth-Sensing LCD for 3D Interaction Using Lights Fields。またLight Fieldか!Lightfieldカメラを後ろに仕込んだ液晶モニタで、前で手を動かしたりとかするとそれに従って操作できるよという話。中身の話をちゃんと聞いてそろそろLightfield自体についても分かってきた。やっぱり立体カメラという理解で大体あってるようだ。Lightfieldカメラ自体は適当なマスクを作ってやれば作れるみたい。うろ覚えだけど液晶の表示とマスクを高速で切り替えてるとかなんとか言ってたような。デモ自体は結構面白そう。Lightfieldカメラいいね。覚えとこう。

このへんでお昼。平日は飯時に会社員が溢れてる感じだが土曜日はさすがに1時過ぎてもどこも混んでる感じ。適当にケンタッキーとかあるファストフードコーナーで食う。すげー混んでるけど。もうリア充爆発すればいいのに。と思ったら隣の女の子達がコーエーがどうとかネオロマがどうとか言ってる。リア…充…?と思ったら横浜パシフィコでネオロマンスクリスマスだかなんだかいうイベントがあったらしい。あー、なんか中高生の女の子がやたらいたのはそういうことか!

午後はまたEmerging Technology。

Lightfield Copy Machine。日立の人。またLightfieldか!立体カメラと立体ディスプレイを一体化して立体コピー機を作ったよという話。うん、普通に立体カメラと立体ディスプレイだ。

Eye HDR: Gaze-Adaptive System for Displaying High-Dynamic-Range Images。HDRディスプレイ…じゃなくて、トーンマッピングしたいんだけど全体的にトーンマッピングしちゃうとおかしいよね。なので見てる人の注視点を検出してそれに合わせてマッピングしちゃいます!というお話。これ一人でしか見れないよなぁ。

High-Dynamic-Range Video Solution。ビデオ撮影から映像出力まで一貫してHDRしました!というお話。ちょっと理解できなかったんだけど、HDRデータ圧縮を頑張ったって話でいいのかな?1秒で何十GBにもなるって話だし。そもそもHDRなカメラってどうなってんのって質問にGerman Magic!って答えてたし。

BiDi Screen: A Thin, Depth-Sensing LCD for 3D Interaction Using Light Fields。…あれ、ついさっきも聞いたような。Emerging Technologyとしても出てたようだ。こっちはさっきと別な説明で合わせてわかりやすい感じだった。こっちの説明はハード寄りの説明だったけかな。

Airflow Interaction With Floating Images。空中に表示してるように見えるディスプレイがあるんだけど、そのインタラクション用に息をふきかけたのを検出するセンサを作ってみたよという話。空中に表示してるように見えるディスプレイってそういやあったなぁと思ったが、そもそもその原理が分からない。なんかマイクロミラーをならべてどうのという話。よくわからんね。で、センサーの方は普通にレーザとレーザセンサを使って、息をふきかけるとそれが乱れるから検出できるとかなんとか…だっけ。へーという感じだった。質問で立体表示はできんのかというのがあって、立体ディスプレイがあればそれを浮いてるように表示できるよとのこと。そういうもんなのか。

Lumarca。立体ディスプレイならあるよ!ということで出てきた。おうちでできる立体ディスプレイということなんだが、透明な箱に線をいっぱいはって、プロジェクタで映すと立体ディスプレイというお話。なんだか理解できなかった。いや物としては理解できるんだが原理はわからん。あとおうちで作るのはめんどそうだ。でも綺麗。おいとく場所があれば作ると楽しいかもね。

で、次は最後のセッション。日本語のSketchセッションへ。

爆発シミュレーションのコントロール。爆発エフェクトのシミュレーションはいろいろあるけど物理的に正しい形はともかく、好きな形にしたいよねー。なのでそれを制御できるようにしましたというお話。目標形状に収束するようにシミュレーションステップ毎に強制的に速度をかけてやるみたいな感じだった。

Fetching Expressions: Throwing Realism to the Dogs in "Up"。Pixarの最近のアニメ(題名わすれた)で犬のアニメーションのセットアップなんかに苦労した話。その辺の話はよくわからんけど、よく観察して特徴をちゃんととらえて動くようにしましょうとかそんな。あと出来るかぎりいじりたい人達なので顔全体で200とかコントロールがあるとかなんとか。それいじるのかよ!

メイキング「9」 カスタムツールによるパイプラインとワークフローの改良。9っつーCG映画があるんだけどそれの制作パイプライン。短期間での制作でレンダリング時間を短くするために遅延シェーディング的なことをやったみたい。一回のレンダリングで色だの深度だの法線だの諸々35枚分くらいの画像を出力して、後のコンポジット工程でそれにライトを追加してレンダリングとかしたらしい。完全に遅延シェーディングですね。オフラインのレンダリングでも使えるもんなんだなぁ。

背景表現のための手描き風CGアニメーション。ポケモンの映画で背景の一部を3DCGで描くのにいろいろ工夫しましたよという話。麦畑のシーンを作るのにカメラからの角度によって麦畑の密度を変えたりしたようだ。

CACAni システムにおけるシミュレーションベースの中割りフレーム作成。セルアニメの中割り(キーフレームの間)を自動生成するツールを作ったりしてますよというお話。で、髪の中割りをシミュレーションベースでなんとか自動でできないかなーとやってみてまあまあそれっぽくなりましたよとのこと。しかし素人目にはそれっぽく見えても実際アニメータさんからはまだまだボコボコに叩かれたらしい。やっぱりそんなもんだよねぇ。でもいつかその域に行けるといいね。

これでセッションは全部終わり。

でも俺はElectric Theaterを最終日19時からにしてたので見に行っておわりでした。チケットが必要なだけあって、普通に流れてた方より全体的によかった…かもしれない。ただスクリーンがでかいのが効いてたのかもしれない。

ということでおわりでしたが。

全体的にまとめて、なんとも言えないんだよなぁ。

もっとすげー興奮するとか、自分の無力さに絶望するとかなるかと思ったんだけどとくにどちらでもなく。なんつーか、ふう勉強したぜ、という感じ。やっぱりアカデミックな場なんだな。楽しいかどうかで言えば楽しいけど、楽しいから行った方がいいよ!って他人におすすめはできない楽しさ。勉強したいなら行くと楽しいよ!って感じ。

あー勉強したな。もっと勉強しないとな。

英語は聞くだけなら結構なんとかなるけどやっぱつらい。理解してる間はいいんだけど、理解できなくなると何言ってるかそれ以降さっぱりになってしまう。語彙が足りんなぁ。

あと聞きながら別なことを考えるとか全然できない。とちゅうがちょっとでも飛ぶと何言ってるかわからなくなっちゃうので。これは英語聞きとるだけでせいいっぱいなんだろうな。

まあでも聞くだけなら本とか一杯読んで慣れたり語彙を増やしていくだけでも大丈夫そうだ。話す方?それは日本語でも不得意だからなぁ。

*1  ごにょごにょについてはひみつ


ページのトップへ | トップ «前の日記(2009-12-17) 最新 次の日記(2009-12-24)» | 編集 | kumaryu.net by kumaryu