SIGGRAPH ASIA 2015見てきたまとめ。旅行自体の感想は前の日記見てね。
それぞれの項にACM Digital LibraryのURLを貼ってあります。なんでか知らんけど誰でも無料どころか登録も無しで落とせるようになってるので安心。
1日目はセッションが会議場のみなんだけど、登録のみ展示会場で、駅を挟んで反対側なので結構遠い。 登録もめっちゃ並んでるので間に合うかな?と思ったけどなんとか間に合った。
サーフェス上のVector Fieldをどうやって扱うかの話。 サーフェスに方向がある値(流れ等)をくっつけるのがVector Fieldで、もふもふを定義したりするのに使うみたいですね。いいですね。 しかし、半分寝てた。なんか前日夜によく寝れなかったんだよね……。
最初に概要の説明があったあとは、
の順で説明してて、面に一つの話まではなんとなく把握してたんだが、辺の話になったら急にわけがわからなくなって半分意識飛んでいた。 面→辺→頂点の順に一般化してく話だと思ってたんだが、それぞれ全然関係ない手法の話だったようだ。最後のあたりでやっと気付いた。
面に一つの場合はフレーム(座標系)の変換が必要になる。 各面のタンジェントスペースで値を保持するので、他の面との比較などを行うには変換が必要。 隣りあった面との間では回転するだけで変換できて、遠い面とは変換の連続で変換できるんだが、ただしどの経路で変換したかによっては結果が異なってしまうので、なんかで補正するらしい(この辺りはよくわからん)。
辺に一つの場合はフレーム変換が必要ないらしい。急にそんなこと言われたからさっぱりわからなくなったぞ。 というかむずかしすぎた。
頂点に一つの場合はフレーム変換でもないなんとか空間で値を定義するっぽい? これまた難しそうだった。
まとめ的には、
という感じだった。
とりあえず面に一つのやつだけでも理解したいと思った。
各国用のUI/UXデザインをする話。前半だけ聞いて抜けてきた。
国によって文化が違うのでUIなんかも変わるよーって話だった。 男性が強い文化に対してそうでもない文化など。 男性が強い文化ではWebサイトでもおっさんばっかりが出てる写真が載ってるのに対して、そうでもない文化ではあたりさわりのない絵が載ってる。 アラビア語文化圏のサイトは英語のサイトでも左右逆のレイアウトになっちゃってたりする。
前半だけで抜けたのでさらっと概要を流しただけだった。 でもたぶん最後まで聞いてもそんな感じだったんじゃないかな。
Technical Briefsってなんなんだろ。論文にはなってないけどそれっぽいやつみたいな感じ? 初日のみのセッションだったようだ。
BlenderのGrease pencilの紹介。だけだったような……。
2D絵を描いて3Dでアニメーションしたり、ストーリーボードをさくっと描いたりするのに使えるよって話。
物と物がぶつかった時の音を自動生成しましょうって話
2つの物がぶつかった時の音自体は以前の研究があってそれを進めたとかいう感じだった気がする。 ぶつかった時の速度・質量・摩擦を使ったり、物の形状(曲がり具合、厚み、太さ)によっても変化するらしい。
聞いた感じではわかるものもあれば、それはちょっとどうなんだって感じの物もあったけどな。 摩擦あたりはかなりどうかと思った。形状によって音変わるのはそれっぽくて良かった。
なんだろうこれ。聞いてた覚えはあるけど内容はさっぱりわからない。 ほとんど夢の中に居たはずだ。今資料見てもさっぱりわからない。
剛体じゃないやつをケージで変形する時にブレンド方法についてどうのこうの。
普通に平均を取るような変形だと曲がったところでくっついたりするようなのが上手くいかないので、新しい手法でできるよって感じだった気がする。 従来手法と何が違うんだというのがよくわからなかったが、スケルトンベースじゃなくて格子で変形するやつだなこれ。
資料 2Dの絵に線をひっぱって自動でボーンを入れてくれて動かせるようになるやつ。面白い。
ウェイトを自動で割り当てる時に近くの点に線をひっぱって、形状の外側になるようだったら同じグループに入れないとかそんな感じだった気がする。 興味深いのでちゃんと資料読んで理解したい。
Papersは2日目からなんだが、1日目最後はFast Fowardていう各1分くらいのビデオを流して論文発表の紹介するっていうやつ。 場所がホテルのホールなんだけど、これまた微妙に遠いな。これの他にここでやるのはキーノートぐらいみたいなんでべつにいいんだけど。
真面目にやる人から、ネタだけで終わるやつまでいろいろで面白い。
朝はキーノートがあるんだけど、だいたい面白い話にはならないのでぶっちしよう。Exhibition Talksが10時からなのでちょっと遅めに起きて行けた。
Exhibitionなので資料は無し。Intelのサイト漁ればあるかもしんないけど。
Intel GPUの紹介。ていうかSkylake GPUの紹介というか宣伝というか。
概要の紹介だったのでこれといって新しい情報は無かった……。
プロジェクターのガンマカーブを実際に見える視覚に合わせて変化させることで、表示できる色空間を擬似的に広げるとかそんな感じだったか?
たぶんそんな話なんだけどどうやって実現してるんだかよくわからなかった。変な独自HWをプロジェクタにくっつけてるみたいだったが……。
HDRのトーンマッピングする時に、輝度の範囲をどうやって選びましょうて話だったような。
こうやってサンプリングするといいよ的な感じだったと思うんだが、正直詳しく理解できなかったし覚えてもいない。 ただ気になる話ではあったのでちゃんと論文読もうと思った。
縦で見た時と横で見た時に色が変わる印刷を作れるよって話。
縦の線と横の線でハーフトーンを作って、縦方向で見た時に縦の線は見えづらく横の線のみが見えるようになるので回転した時に色が変わるようになるようだ。
色が変わるだけじゃなくて全く違うものを表示することもできはするけど、ゴーストが出ちゃうのであんまりよくならないらしい。 あと金属じゃなくてもいいけど透けない素材じゃないとだめとかいう話だった気がした。
絵の下書きを自動でクリーンナップしてくれるやつ。
ラフな線を一本にまとめてくれる。
基本的には似た向きの近い線を結合するんだけど、それだけだと近くにある別の物体の線がくっついてしまうので、 閉領域を検知し、それでグループ化してから線を結合することで、別の物体の線が結合されることを回避する。 結合したらまたグループ化して精度を高めていくとのこと。
将来のお絵描きソフトにはこういう機能が付くんじゃないでしょうか。
2Dキーフレームアニメーションを描く時に前のフレームなどから自動的に絵を補完してくれるやつ。
描く順番と位置関係から構造を認識して補完するみたい。 描く順番に一貫性が無いと上手くいかない模様。
モバイルでのグラフィクスに関するシンポジウムの中でも特に描画系のやつ。 だいたいサムスンの人がこんな研究してますって話すばっかりなんだが。
途中から入ったので見てないやつだ。
ローカルリフレクションがあるところって画面のほんの一部なので、それ以外のところは普通に(ラスタライズで)レンダリングして、一部だけレイトレすればよくね?って話。
カラーブリーディングとかどうすんのって質問されて、カラーブリーディングとかよく知らね的な回答だった気がしたけどさすがにひどいので聞き間違いかもしれない。 どっちにしろグローバルイルミネーションできないよね?だったらレイトレいらなくね?
レイトレエンジン内で浮動小数点数と固定小数点数を上手く使い分けることでおいしくなるよ的な話だった。
細かい実装の話だったのでよくわからず。半分意識が飛んでたとも言う。
Near-eye light fieldディスプレイ(HMD的なライトフィールドディスプレイ)の解像度改善方法。
120fps駆動のディスプレイでインターレース的に1/4ずつずらすことで30fpsの解像度を擬似的に上げる的な感じだった気がする。
2Dのパスレンダリングをする時にステンシルバッファを使った方法ではメモリアクセスが多くてしんどいし、CPUで内外判定すると今度は計算量も大変なので、メモリも計算時間も食わない方法を作ったよ的な話だった。
タイルベースで各タイルにエッジの向きを記録してって内外判定する感じだった気がするが、まだちゃんと資料を読んでないので詳しいところがよくわからない。非常に興味深いのであとでちゃんと読んでおきたい。
質問でNVIDIAはNV_path_renderingをHW化しているがこいつはHW化できるんだろうかみたいな質問があって、NV_path_renderingがどうかはともかく、HW化はやろうと思えばできるんじゃないかなーという回答だった。NV_path_renderingはHW化してなくてドライバで頑張ってるだけだよな……。
狭いし混みすぎてて全然見れない!
展示場は広くもなく、Exhibitionからして混み合ってたんだけど、Emerging Technorogiesはその奥1/3くらいのスペースのさらに半分くらいで行われていた。しかもそこで発表もやってんの。おいおいどんだけ押し込めてんだよ。
残りの半分くらいのスペースは閑散としたArt系の展示がのびのびと行われていた。おいEmerging Technorogies側にもうちょっとスペース割いてやろうぜ……。
毛(特に動物のもふもふ)のレンダリングをするのに、今までよりもっと物理的に正確な方法を使いますよって話。
毛は実は半透明な中心の層、光を吸収する中間の層、光を反射する外側の層の三層になってるんだけど、各層の厚さや外側の層がレイヤー状になってたりするなど動物によって違いがあるんで、それらをちゃんと計測してレンダリングしますよと。 計測するの大変そうだなぁ。
BRDFの計測ってめっちゃサンプル数が必要で大変なんだけど、上手いこと最低限のサンプル数でほぼいい感じになるようにサンプルする場所を選べるようにしたよって話。
スペキュラ・ディフューズ・フレネルなどの成分によって角度依存する範囲が限られるので、それを考慮すればサンプルする箇所を減らせるんじゃないかって話らしい。なるほど。ただ詳しいところは全く理解できなかった。
聞いてて異方性あるマテリアルはどうなんだと気になったけどやはり質問してくれた人が居て、異方性があるマテリアルでは使えないようだ。そりゃそうか。でもまあそんなに異方性あるマテリアルって多くないだろうからいいのか。
えーと、これなんだろ。スケジュールに書いてはあるけど内容全く覚えてないし、論文としても上がってないみたい。
何らかの理由で無くなったんだろうか、単に覚えてないだけだろうか。 それにしても論文上がってないのはおかしいな。無くなったのかもしれん。
シェーダのLODを自動的に作ってくれるシステムを作ったよって話。
パラメータを減らして速度と見た目の誤差を計測して、また違うパラメータで試してってのを高速で繰り返してくれて、簡易版のシェーダを作ってくれる。ある程度テクスチャの焼き込みをしたりとかどれがいいかユーザが選んだりもできるみたい。
システム自体はすごいけどそんなにシェーダ大量に作るもんなんだろうか。あんまりシェーダ変えまくると逆に遅くなったりしない?シーン全体で最適化とかできればいいのかなぁ。そこはこいつの後のプロセスってことか。
Hi-Zをもっと速くしたいって話。
プリミティブがぶっこまれた時にラスタライズ前に荒い深度テストをするHi-Zて方法があるらしい。 フラグメントシェーダ実行前に深度テストしちゃうのは知ってたけどラスタライズする前にやるんだね。
で、Hi-Z用深度テストには当然書き込まれている深度値が必要なんだが、いちいちフレームバッファにアクセスしてたら遅くて意味無いのでHi-Z用キャッシュにある深度値でテストする。しかしテストが通って深度値が更新される度にHi-Z用深度キャッシュに書き戻すのをやってたらやっぱり遅いじゃん!ていうのでそこをHi-Z部分だけでなんとかしたいという話のようだ。
タイル毎に一番でかい深度値と二番目の深度値をキャッシュに保持しておいて、プリミティブの最大深度値と保持している値を比較してどっちかよりも小さければ(手前ならば)テスト通過、即座にキャッシュに書き込むって感じっぽいのかな?これで本当に大丈夫なのかはちゃんと読まないとわからん。
まあGPU内部でこういうHWを作るといいよって話だったので、手が出ませんなー。
3日目は特に何事もなく、朝から晩まで会議場にこもるのみだ。 ていうかもう半分終わったのかよ……。
Pixar映画での群集AIの話。うーんこれ資料上がってないなぁ。そりゃ映画の画像や映像いっぱい入ってたから無理だとは思ったけど……。残念。
FSM(有限状態機械)ベースのやつからAgentベース(各々状況に勝手に反応するやつかな?)に行ったり来たり組み合わせて使ったりしてるよーって話だった。
基本的に手付けのアニメーションクリップの遷移制御ししたいのでFSMベースでやって、場合によっては生成された一連のアニメーションを手でまたいじったりしたりもしてたようだ。めっちゃ原始的。
その後Agentベースにしたり、そんなに大量の群集が出ない物ではまたFSMベースになったりして、最近はAgentベースだけどFSMのいいところを取り込んだのになったりしてるとかそんな感じだったような気がする。
まああんまり詳しいところはわからなかった。しかしCGアニメ最先端だろうPixarでも結構あちこち普通に泥臭いことになってんだなというのが興味深い。 Pixarは他の場所での話も聞くにかなり大変な手付けアニメーションをやってる部分が多いようだ。もちろん省力化できるところはやってんだろうけど、クオリティに妥協が無い感が半端ねぇというか、プログラム作ってる人は大変そうだな! 最新の技術の話もいいけど、こういうところで実際はどういう使われ方してんのかって話も参考になるのよね。
午後は3Dプリンタ関係のPapersセッションでも。知らん話なので寝ちゃわないかと心配だったが意外と面白かったので杞憂だった。 他の候補としてはWebGLのCourseもあったんだが、内容についての説明は全く何も書いておらず、講師がGoogleの人だけだったのでやばそうな臭いしかしないし回避した。
3Dプリンタで印刷する時には、プリンタの印刷できるサイズや印刷時間、使う材料の量などを考えて、なるべく狭い範囲に無理なく収まるように分割して印刷して組み立てるんだが、その分割と印刷範囲への詰め込みを上手くしましょうって話。
パーツはなるべくピラミッド型(上にいくほど細くなるよう)に分割すると上手く印刷できるらしいので、その形に分割しましょうって論文は以前にあったんだが、それをさらに発展させた話みたい。 おおざっぱにピラミッド側になるように分割と詰め込みをして、最後にもうちょっと細かく詰め込む的なことを言っていた。
まあ詳しいことはさっぱりわからんのだが、3Dプリンタではいろいろこういう条件があるんだよみたいな話は知らなかったので興味深い。
これも分割と詰め込みの話だが、また違ったアプローチで行う物だった。
形状のストレス解析とかをやって、組み立てた時にちゃんと自立するだの力が加わっても崩壊しないだのといった条件や、なるべく分割線が目立たないようにといった考慮をして分割するようだ。なるほどー。 でもこっちは印刷しやすさなんかはあんまり考えてないぽいね。
詰め込み方もちょっと面白くて、一個前の論文では3Dテトリスみたいな感じで上手く並べてたが、こっちだと分割したパーツを剛体物理シミュレーションにぶちこんで四方から壁でぎゅっと押し込んでいた。そりゃ確かにそうだなwwwww
まあそんなこんなで分割して詰め込んでみてってのを繰り返して良さそうな形状を見つけるようだ。
しかしこれらの自動で分割されたやつって、最適化されすぎてて実際に印刷された時に組み立てられる気がしなくないです?
3D印刷をする時に、浮いてるような印刷が難しい場所にはサポート材を印刷しないといけないんだが、サポート材を外した所はどうしても見た目的に粗が出てしまう。なのでなるべく目立たない場所にサポート材を当てられるようにしましたって話。
モデルを解析して、ここに当てたら目立つだろうなってところは勝手に避けてくれるだけでなく、こっちが正面なってところをユーザが指定すると、なるべく正面を避けるようにサポート材当てるようにしてくれるみたい。 どうもその結果として斜めってるような無茶な態勢で印刷されることになったりするみたいだけど、まあ最終的な見た目が良ければいいんだろうか……。
なんの話だかよくわからなかった……。
多脚ロボの形状から上手いモーション歩行モーションを作ったりする支援システムを作ったよ、てな感じに見えたんだけど、何が3D Printableなのか、それはSIGGRAPHの話なのかってあたりが全然わからんかった。
午後2つめはこれ。Specialized Designという変な物作りPapersセッションもあったんだけど、そっちは面白いだろうけどそこまで興味はないかなーと思ったのでこっちにした。
1枚の写真を深度推定して分割する話。
写真を撮るとdefocus blurていう暈けがどうしてもエッジに出るらしい。で、このエッジの暈けを検出して、それぞれの物体がどの辺りの深度にあるか推定する。そんな微小な暈けから検出できるもんなんだな。
写真の異常を検出して拡大する話。
写真の中で真っ直ぐっぽいところや、円っぽいところを指定してあげると、曲がり具合や円の変形具合を強調した絵が作れるような。ずれ具合を強調するのがDeviation Magnificationらしい。
ユーザが直線を指定すると、近くからそれっぽい直線を検出し、理想的な直線からの微妙なずれを見つけてずれ方向に変形することで強調するって感じっぽい。
Deviation Magnificationの意味が分からなかったので途中までは何の話なのかさっぱり分からんかったが、聞いてるとなんとかなるもんだね。
これも写真の異常を検出して直したり拡大する話。
繰り返しパターンになってそうでなってない画像があるときに、それを検出して整列させたり、逆に不揃いにしたりする方法の話だった。関連した最近の研究として20分前に発表されたやつがありますとか言ってた。
しかしこっちは見た目的にはわかりやすかったんだが、話の内容はさっぱりだった。あんまり詳しい話もしてなかったようにも思えるが、少なくとも俺が分かるレベルで簡単な話はしてなかったのは確かだ。
形状のパターン検出だけじゃなくて、色のパターン検出→異常の拡大もできるよって話で応用範囲はすごく広そう。
写真加工をする時にスマホでやると電池食うし時間もかかるので、いろんな検出処理なんかの重い処理はクラウド側で処理やらせたい。 しかし画像をアップすると時間かかるからやっぱり電池も食うし画像のアップ・ダウンロードで時間もかかるので困ったところ。 そこでクラウド側で処理したパラメータだけをスマホにダウンロードしてスマホ側で適用すればいいじゃない、て話。
クライアント側からはサーバ側にめっちゃ縮小&圧縮したプロキシ画像を送って、サーバではそれをいい感じに加工する。加工した結果でなく、こういうように加工したよってパラメータだけをクライアントに返して、クラウアントではプロキシでなく元の画像に落としてきたパラメータの加工を施すってことだった。
なるほど?と思ったが、ただまあ残念なことに、ちょっとしたパラメータで表わせる程度の加工しかできないようだ。 画像の一部を消したり足したりするようなのは無理だとさ。そりゃそうだよな、その分のピクセルをやりとりしないといけないし、軽いプロキシ画像で処理するわけにもいかないし。 でもサーバ側でやらせたいような重い処理ってそういうもんじゃないの?と思うとどうなんだろうな……。 ていうか小さいプロキシ画像の処理だったらスマホ側でやっても良くなっちゃわないのってあたりがどうだろうね。
最終日。この日は基本的に16時でだいたいのセッションが終わってしまうので見れる物が少ない。なんで早いんだろ。
午前中はこれ。便利なツール開発的な話。
橋とか椅子みたいな物の形を作る時に、自動的に形を生成するTopology Optimizationなるものがあるそうな。 支えられる限界ぎりぎりまで自動に細くしてくれるようなの。 しかしそれでできるのはシンプルな形なので、デザイン的なものをつけつつ最適化する方法を考えたよって話。
ちょっと詳しいことはわからなかったし、繰り返しパターンみたいなのを入れるだけなのでやっぱりだいたいどれも同じような見た目になるのでよくわからんね……。
街中にタワーをぶちたてようと思ったときに、かっこよさとビルからの景観を考慮していい感じのタワーをデザインできるツールを作ったよという話。
だいたいビルのパターンがあるのでそれをランダムで組み合わせて、ユーザがいい感じのを選んだりインクリメンタルに絞り込んでデザインできるツールのようだ。 さらに、地図上の場所を決めてからデザインするので、近くの建物の高さから遮蔽率やら水辺が見えるかとか計算して、この形や窓の数だとこの方向の景観が良いですよーみたいなのも見たりある程度いじったりできるらしい。すげえな。
しかしこのビルはちゃんと建てれんのか……?と気になったんだが、それは関係なく、とりあえずかっこよくていい感じのビルをラフにデザインするユーザのためのツールなようだ。これでこんな感じのビルがいいなーとなってから、じゃあ実現するためにちゃんと設計しましょうという方向になってくんだろうな。
3Dプリンタのよくある用途として、ある物を別な物にくっつけたり保持させるための接続部分を作りたい、というのが考えられる。 でもそれ印刷は簡単にできるとしても、ちゃんとデザインするのはそこらの一般人なら誰でもってわけにいかんよね?! なので自動生成できるようにしましたって話。わかる。
机などの保持する側と、たとえばカップなんかの保持される側に分けて、保持する側はクランプなどのある程度決まった形状から選び、保持される側は自動生成してだいたいどんなのでも保持できるようになってるみたい。
保持する側は力がどの方向にかかってどの程度かかってもちゃんと耐えられるかってのを事前にデータ集めておかないといけないので、決まった形状からしか選べないようだ。
保持される側は、ある点から表面を覆うように広げていくことで保持できるような形を生成する。完全に覆ってしまうと抜き挿しできずに困るので、この方向は抜けるように覆わないなど指定できるようだ。
生成するのに形状データが必要になるんだけどそりゃどうすんだという質問で、最近はKinectとかスマホの3D取り込みソフトみたいなので作れるよってことだった。便利な時代になったもんだな。
何にでも使えるってにはまだまだ遠いみたいだけど、これだけでもすぐに使えるものになってる感じですごい。3Dプリンタをそこらの一般人が使うには必須な技術だと思うのでもっと発展してって欲しいですね。
屋内シーンの3Dスキャンなんかはよく研究されてるわけだが、そこにマテリアル割り当てたりしようとすると大変だよね。 なのでシーン中のマテリアルを自動的に割り当ててくれるよ!ってシステムを作った話。
屋内シーンの画像を集めてきて、ここは壁だとか机だとかタグ付けしたDBを作る。 さらに画像の色を解析して、ダイニングだったらこんな感じの5色、ベッドルームだったらこんな感じの5色みたいなのを集めておき、こっちのマテリアルとあっちのマテリアルは隣合いがちといった情報も入れておく。 で、3Dデータを入力してじゃあこのシーンはダイニングねーみたいな指定をすると、それっぽくマテリアルを割り当ててくれるって寸法だ。わーい。 色を固定して、このベッドルームはピンクっぽいのがいいみたいな指定をするとそれっぽくやってくれるたり、画像を渡してこんな感じにしたいてのもできるみたい。そりゃ出来るだろうけど実際デモ見るとすごーい。
統一感のある部屋が簡単にできるんだけど、逆にわざと統一してないような物は作れないようだ。白と黒の椅子が交互に並んだりとかそんなの。まあでも最終的に手でいじればいいんだし、十分じゃねぇかな。
えーと、資料確認しようと思ったんだけど、なぜか無いな。 上がってないというかTOGの目次にすら入ってないんだがなんなんだ。 ちゃんと内容は覚えてるんだけど……。
服とか靴のような物で立体的に曲がった部分があるデザインを、スケッチから3Dに起こして型紙まで作っちゃうシステムを作ったという話。
1~3枚程のスケッチに、ここ曲がってるからなといった簡単な指示を追加するだけで3Dモデルにして型紙も作ってくれるようだ。すごい。
感想としては、それ型紙自動生成されても組み立てられる気がしないんですけど、そういうの作る人ならちゃんとできるもんなんですかね。
午前中2つあったんだった。
深度付きカメラ(つまりKinect)を使ってオブジェクトのトラッキングをすることで複数プロジェクタでの動的プロジェクションマッピングをしましょうていう話。
詳しいことはさっぱり分からなかったが、カメラ動かしても映像がぶれないし(まあこれはおかしくないか)、物体の方を動かしても映像に破綻がないのがすばらしい。もちろん少しばかり遅延はあるんだけど、激しく動かなければ気にならない程度っぽいかな。デモ映像では2プロジェクターだったが、1つじゃないので、凹凸がある物体を回転させても一方の影になる部分はもう一方で映せればちゃんと映像が出てるってのはいいね。
クワドロータ(よくあるドローン)にカメラ載せて空撮するのに、そのパスをシミュレーションしつつデザインできるツールを作ったよという話。
移動箇所をキーフレームで指定したりイージングを設定できたりして、素人でも簡単にいい感じの空撮ができるよと。 ドローンで使ったことないからわからんのだけど、そういうツールって普通にあるもんだと思ってたけどそうでもないのね。
あとはシミュレーションで見た画像とだいたい同じように撮影できると。どうしてもセンサーやコントロールの精度でシミュレーションとぴったりにならんのが課題とか言ってたけど、ぴったり同じになっちゃったらそれ空撮する必要あんのかという気がしなくもないな。いやまあ必要なければ最初からCGでいいじゃんて話なんですけど。
物体が振動してるビデオを解析して、1枚の画像の中でその物体をそれっぽくびよんびよんさせられるようにしちゃう話。
本当にちょっとでも振動してる動画があればだいぶいい感じにびよんびよんになってしまうので面白い。どうやってるのかはほとんどわからんかったが。
このご時世には講義ビデオとかよく上がってるけど、見るのに時間かかるし検索できないしで使いづらい部分がある。 Youtubeなんかでは音声認識での字幕とかあるし文章も取れるけど、黒板に書いた絵とか取れないじゃーん、ということで取れるようにしましたっていう話。
黒板の認識は他にもあるみたいだけど、タイムラインに沿って描かれた絵や式を認識して、字幕と混ぜて一つのページにするのができるようだ。書いた順番を見ているので、黒板にぎゅうぎゅうに描かれてもあるちゃんと分けて認識してくれる模様。便利そうだなぁ。
制限としては、書く順番とかを使っちゃってるので、スライドみたいなすぐにページ全体が出来上がっちゃうようなのは正しく認識できないようだ。
まあ黒板形式の講義ってあんまり見ないからなんだけど、最近はマニュアルとかチュートリアルがビデオになってるアプリとかよくあってキレそうなので、そういうのをテキストに上手く起こしてくれるシステムがあると助かるなぁ。
午後はこれ、と思ったが途中で抜けた。資料は無い。
始まるのが早くて、午前のセッションが終わったのが12時半で、こいつ13時から始まるので飯食う時間がほとんどなく、朝コンビニで買っておいたおにぎりを適当に食って向かったら、結構早めだったのに既にだいぶ並んでた。
話としては日本のアニメでのCGについて、日本の各アニメ制作会社のパネルセッションという話だったんだが、前半は各社の紹介をやっていた。 しかし各社出てる人がばらばらで、実際に作ってる人だったりプロデューサとか社長だったりが出てきててレベルが統一されていない。実務やってる人の話は面白いが、偉い人系だと作ってるところの詳しい話は出てくるわけもなく、宣伝ぽい話が多くて興味が引かれない。 ていうかこのペースだとパネルセッションも聞いててつらいだろうなと思ったので途中で抜けてきたわ。
抜けたあと残り時間はこれ。ソフトボディ系の話だったのかな。 だいたい理解できなかった。
これは途中から入ったので見てないやつだ。
途中から入ったので最初の方の概要とか聞いてなくてよくわからなかったんだが、ソフトボディのシミュレーション方法で速いやつって話らしい。
速いけどゲームで使える程の速さではないよって途中で言われた。
詳細はよくわからん……。
切れ目があるようなソフトボディで、切れ目の部分を上手く処理する話だった気がする。
途中まで何の話なのかすらさっぱりなのでさっぱりだったでござる……。
新しいスキニングの方法の話ぽい。
いや興味深い話ではあったはずなんだけど覚えてないな。たぶん数式がいっぱい出てきてよくわからなかったんだと思う。 というか今論文見ててもよくわからない。たぶん興味ある内容だと思うのであとでちゃんとチェックしておきたい。
あと最後に簡単な閉会のあいさつと次回の意気込みみたいなあいさつがあって終わり。 毎度終わった感もなくはい解散だったのでこれあるのちょっとだけうれしい。
毎度最終日終わったあとのElectronic Theaterチケット取ってるので今回も最後で。 今回はセッションが終わるのが16時だったので、最後のElectronic Theaterも18時で終わる。 早い。でももし18時からElectronic Theaterだったら最終の飛行機乗るの難しいのか。 そんときはもう一泊するか新幹線にするか考えただろうけどさ。
内容はとくに触れようもない。半分くらい狂気じみた作品なのは、まあ、芸術ってそういうもんなんですかね。
ここまで書いてたのを見ればわかるとおり、だいたいよくわからんって書いてある。やばい。
えーと、ちょっと最近まったく勉強してない気がするのでもうちょっとなんとかしたいと思います。 あ、でも、いろいろと勉強にはなったし、いろいろプログラム書きたいなーと刺激にはなったので非常に良かったですね。 まあまたそのうち行きたいと思います。毎年は厳しいんでまあ来年は行かんだろうけど。
あとあれだ、ケツ痛くなるのでクッション的な物を持ち歩くと非常に助かります。他にそんな人は見かけなかったが。