くまりゅう日記

もっと過去の日記
[.NET | BeOS | Blender | COLLADA | fossil | mono | monotone | NPR | OpenGL | PeerCastStation | Riko | Ruby | Silverlight | TRPG | XNA | ゲーム | ゲーム作り | ]

2013-12-07

日記

SIGGRAPH ASIAのレポートやっと書いたよ。いくらか飛ばしてるのあった気がするけど……。

もう二週間も過ぎてしまったので記憶が薄れてきていてよろしくない。わかってはいたがもっと早くに書くべきだったな。

[PeerCastStation] タイムアウトしちゃう

最近WMV9 Screenの配信を見てると切れるという報告が聞こえてきたので試してみた。

確かに切れまくるな。何が起きてるのかと思ったらタイムアウトだ。WMV9 Screenはキーフレーム間隔が長いうえに名前の通り画面取り込みに特化してるので、あまり動いてない画面だとめちゃくちゃ低ビットレートのデータになる。で、しばらくデータがないということも起きるので受信タイムアウトして切れてしまうようだ。これはこまった。

とりあえず配信時のHTTP受信の方はもうちょっとタイムアウト延ばせばよかろう。何秒なら足りるのかというあたりはよくわからないが、10秒もあれば足りるだろうか?

PCPの受信の方はどうしたらいいんだ。相手が送るデータ無くて送ってきてないのか、ネットワークが不調だったり相手がしれっと死んだりしてデータ受信できないのか判別できない。回避するには、たとえば1秒間パケットが一切流れてないならダミーパケット送ってみて返事を待ってこなければやっぱり切れてるわーと判断するようなことができるが、PeerCastにその機能が無いので互換性の点で問題がある。PCPはなかなか残念なプロトコルだ。

PeerCastはどうしてるのかというと、たぶん受信のタイムアウトは無かったんじゃないか。あったとしてもだいぶ長いはず。 PeerCastStationでもそうしてもいいけど切れないのは困るなぁ。

通信が滞るとPeerCastでは送信側で切ってたはずだ。 タイムアウトすると同じことになっちゃうと思うんだけどどうしてたんだっけ……? あ、思い出した、パケットリングバッファが溢れたら切ってたんだ。

リングバッファの中身を送りきる前に受信したパケットでリングバッファが溢れたら送り切れなかったと判断して切ってたんだな。 これもいろいろ困った点があって、リングバッファが64個固定でパケットが時間的にもサイズ的にも可変なので溢れるまでの時間が不定、 探してたパケットが無かった時点でリングバッファが溢れと判断するので古いパケットが潰されたためにパケットが消えたのか上流でパケットの抜けが発生したのでそもそも受け取ってないのかが判別できない、 とかいう問題が思い付く。 上流でパケット抜けが発生しただけなのに自分で切ってしまうのは問題じゃねぇかな。 上流でパケット抜けた時点で上流が切れるから大丈夫だって?それもそれでどうよ……。

受け取った時点でパケットが既に抜けている場合はそのまま送りつつ、次に送ろうとしたパケットがいつの間にか消えてたというのはどうやって検出しよう? 受信パケットにローカルな連番つけておけばいいか。ローカルな連番なら上流で抜けたかどうかは関係なく、自分が受信したあとに消えたかどうか判別つくな。 UDPでパケット受け取るようにすると受信順と論理的なパケット順が合わないのでちょっと困りそうだが、UDPのことはUDPの時にあらためて考えよう。

パケットの消え方もちょっと考えないといけないかも。 小さいパケットが沢山送られてくる場合の対策として、100個固定のキューをやめて5秒だか保持したパケットは古いから破棄しようとしてたんだけど、 これだとでっかいパケットが少量送られてくる場合に上手くいかない可能性がある。 数は少ないながらも5秒で送りきれない巨大パケットが流れてくる場合だ。 どんな場合だよ、巨大すぎるだろ。 と考えるとべつに変更する必要もないかな。 安心を取るなら貯まったパケットが64個越えていてかつ古いパケットが5秒経過してたら消すようにしようかとも思ったんだけど、そんなに保持する必要ないかなぁ。

まとめると

  • PCPの受信タイムアウトは長めにして基本的にはタイムアウト切れしない
  • PCPの送信側ではパケット送りきれてなかったら切る
  • パケットを受信したらローカルな連番を割り当てる
  • 次に送ろうとしたパケットの連番が跳んでたらパケット送り切れてないので切る。

こんな感じか。パケット消える時間は5秒でいいんだろうか。ちょっと長めな気もするが。

あれー、書いてて気付いたけど送る物無い状態では送信タイムアウトしないだろう。 送信タイムアウトは送ってるデータがいつまでたっても受け取られない場合にしか起きないや。 切れる問題をなんとかするだけなら受信タイムアウト延ばすだけでも十分だったか……。

SIGGRAPH ASIA(香港)日記 4日目

4日目、最終日。 ホテルチェックアウトして荷物をなんとかしないといけないので早めに6時半頃起きた。

昨日買ってきたカップヌードルを食ってみるが当然ながら普通にカップヌードルだった。

7時半頃にチェックアウトしてホテルを出る。 と、雨降ってるじゃないですか!折り畳み傘はスーツケースの中にあるけど鍵閉めちゃったから開けるのめんどいな。 ぽつぽつ降ってるくらいだし、駅までならそんなに時間かからないので大丈夫だろう。 駅まで着いてしまえばあとは全部屋根あるところだ。

朝はそんなに道混んでないんだよな。7時半は早いのか遅いのかわからんが、夜の混み具合が謎なくらいには空いてる。 銅羅湾駅から電車でセントラル駅へ行ってつながってる香港駅へ。 香港駅ではインタウンチェックインといって駅で飛行機のチェックインができちゃうところがあるので、 そこで早々と飛行機のチェックインをして荷物を預けてしまう。 これで夜は空港に行って出国手続きするだけで楽ですね。

あとはワンチャイ駅まで電車で戻って会場へ。9時ちょい前に着いた。丁度だったなー。

Technical PapersとTechnical Briefsをひたすら聴く予定だったが、一部聴きたいテーマが被ってたので結局Technical Papersだけ聴いてた。 Technical Briefsって聴いたことなかったので一度行きたかったんだけどな。CourseとPaperの中間ぽいんだけど。

これ書いてるのがもう1週間以上過ぎちゃってる時点なので記憶が薄れてきてますなぁ。やばい。

HDR & IBR

最初のTechnical Papersはこれ。タイトル通りですな。

Image-Based Rendering in the Gradient Domain

Gradient Domainでのイメージベースドレンダリング。←日本語になってない。 Gradient Domainてなんだろう。

イメージベースドレンダリングってのは、同じ場所を複数角度から写真取ったやつを合成して立体写真的なことをしましょうって物のようだ。

この論文はガラスなんかの半透明物体を撮った時に、ガラスの反射について深度値の推定が上手くいかなくてノイズになっちゃうのでなんとかしましょうという話だった。

何やってるか?何やってるかは……よくわからなかったよ。

Data-driven Hallucination of Different Times of Day from a Single Outdoor Photo

昼間の風景写真を夜にしたいなぁというのをやる。

目標とする画像に似たよさげな時間の写真を拾ってきてそれに色を合わせるようだ。 ただ全体的に色合わせるだけだと建物とかの細かいところが上手くいかないので、建物とかは認識して個別に合わせる。 元画像の建物は参考画像の建物に合うようにするという話だった。

いろんなデータ必要なく、元の画像とこんな感じにしたい画像があるだけで合わせられてすげぇ!と思ったがやっぱり結構制限あるらしい。 今のところ元の画像が昼じゃないと上手くいかないとか、参考画像の方にも似たような建物がないといかないとか、手法的にそりゃまあそうだわな……。

Automatic Noise Modeling for Ghost-free HDR Reconstruction

HDR合成やるときに動いてる人がうつってると、合成する画像毎に違う瞬間がうつってて困るので消したいよねという話。 あとついでに写真のノイズも消したいよねと。

複数枚の露出の異なる画像を合成するんだけど、明らかに違う物がうつってる画像はそのことを検出して採用しないようにしましょうとかそんな感じだったような。明らかに違う物がうつってるっていうのを検出するのが肝なんだけど。

制限として一枚だけしか採用できなかった場所なんかはHDRにならないのと……あとなんか一つあった気がしたけど忘れた。 でも出来はすごくよく見える。

Patch-based high dynamic range video

HDRビデオを比較的安いカメラでも撮りたいなぁという話。

HDRビデオを撮れる高いカメラはあるけど高すぎるので安いカメラでやれるようにしたい。 1フレーム毎に露出を変えるのはできるのでそれを合成すればいいんではないかという話だったが……1フレーム毎に露出変えられるカメラなんかあんのか? それがちょっと不思議だった。やろうとすればソフト的に出来るという話なら理解できるがそういうことなんだろうか。

内容としてはたとえば3段階の露出で撮るとある露出の画像は3フレームに1回しか出現しないわけで、それは前後のフレームから補って作りましょうとかいう感じだった気がする。前後のフレームから補うのも、適当なサイズのパッチを決めて前後のフレームのどこにそれがあるか探してコピってくる的な?よくわかってないな……。

それで補いまくった結果を合成してHDRになるっていうのが不思議な気がするんだが。無いフレームを補おうとしても無理なんで、たぶんそこは同じフレームの別露出の画像を使って前後から補完してるんじゃないかとは思うんだけどそれを合成しちゃっていいんだろうか。その後補うので大丈夫なの?やっぱりわかってないな……。

HDRとか何故か好きなので見てるのは楽しいんだけど、詳しくはよくわからん。

Fast, cheap and out-of-core rendering

午前の後半セッション。リアルタイムレンダリング的なカテゴリかと思ってたがそうでもないようだ。 描画を上手い感じにはしょって最適化しましょうという話なのでリアルタイムに通じるところもあるが、必ずしもリアルタイム向けではなかった。

On-the-fly multi-scale infinite texturing from example

テクスチャをタイリングしたり、テクスチャをブレンドする時に上手いことつなげたい。 タイリングする時にパターンが見えんのはよろしくないなーとか、テクスチャ切り替え時には境目を線形ブレンドじゃなくてちゃんとテクスチャ内容の境目を見てそこで切り替わって欲しいなーとかいうことだった。なるほど。

もう内容がうろ覚えだが、テクスチャの特徴を見てそこからパッチに分割していい感じに並べようという話で、結構複雑な形状のパッチに分割していた。 あとはいい感じに並べるとパターン見えない感じになるようだ。

しかしパッチが複雑で均一じゃない形状なので並べてもくっつくわけはない気がするんだが、その間をどうするのかよくわからなかった。論文読んだら詳しく書いてあるんだろうか。確認しておきたい。

前処理にはやはりそこそこ時間かかるようだ。 とはいえ前処理が重いだけならリアルタイムレンダリングにも使えそうだなぁ。

Anisotropic spherical Gaussians

Spherical Gaussians(球形ガウシアン?)に異方性をつけた近似式を作ったよてな感じだったような。

フォトンマッピングとかのフィルタリングで使われる球形ガウシアンだけど異方性をつけようとすると急激に難しくなるので、近似式で速くしましたという話。 Spherical Gaussiansのつかいどころがよくわかってないので、いまいちわからん。

GPU-based out-of-core many-lights rendering

数百万とか数千万とかそういう単位のライトとポリゴンがあるような巨大なシーンをGPU使ってレンダリングできるようにしましたという話。

リアルタイムレンダリングの話だと思ったがそんな規模でもなかった。 いまいち印象が薄くてぱっと思い出せない……。

論文見たけど全く思い出せないなぁ。確かに聴いてた覚えはあるんだけど全く理解できなかったのかもしれない。

Linear efficient antialiased displacement and reflectance mapping

いい感じにアンチエイリアスできるディスプレースメントと反射テクスチャの話……だっけ?

良かった覚えだけあって話の内容が全然覚えてないぞ。この時間帯はケツ痛かった覚えしかない。

論文見るとディスプレースメントとreflectanceのマップをいい感じにいじって、小さい領域でも上手い感じにレンダリングできるようにしましたという感じのようだ。確かにそんな感じだった気がする。中身は難しくてわかりません。ゆっくり読めばわかりそうだけど……。

4日目お昼

お昼だー!しかしお昼はレストラン混むので昼飯は食わない。夕方に時間があるのでそこで飯を食うことにしよう。

しかし午後のセッションまで時間が空くのでどうしたものか。アニメーションシアターは予定を見る限り13時台は何もやってなさそうだし……と思ったら人が入っていくし出てくる様子もない。何かやってんじゃねぇのかと入ってみたらやってた。上映予定表はなんだったんだ……。しばらく見てたらいい時間になったので午後のPaperへ。

Rendering and thinking inside the box

午後のPapersセッションはこれ。このカテゴリは……なんだろう? indside the boxの意味がわからんのだけど、論文の傾向を見ると決められた中で工夫する的な意味なんだろうか。

Bilateral blue noise sampling

ブルーノイズサンプリングする時に、とにかく均一にするんじゃなくて属性毎に均一にする感じに重点を置いたらよくなったという話だった。

ブルーノイズってのを知らなかったんだけど、(二次元で?)均一にランダムサンプリングしたい時に使うノイズのようだ。

普通にブルーノイズを作る時には適当に点打って、既に打ってある点と近かったらやめて次の点打って……というのを繰り返して最後にいい感じになるように均一化の調整をするという方法があるらしい。 ただこれで作ったノイズで複数の種類がある物をサンプリングすると全体として均一だけど、ある種類についてみるとあんまり均一ではなくなってしまう。 なので違う種類のやつは重なり気味に点打ってもいいようにノイズを作ってやるといい感じになるという話だったような気がする。

何がうれしいかっていうと、緑のライトと赤いライトでサンプリングした時にノイズが目立たなくなる?そんな例を出してたがよくわからんな。 適当に地面に木を生やす時に何種類かの木を混ぜてもいい感じにばらけてくれるとか、ポイントクラウドを作る時に稜線だとか平面だとかの属性で割り当てるといい感じにサンプリングできるとかそんな感じらしい。

地味に応用範囲が広そうですごい。覚えておきたい。

Halftone QR codes

ハーフトーンでいい感じにモノクロ画像をぶちこんだQRコードを作ってやったぜ、という話。

基本的にはQRコードの1点を9分割くらいして、真ん中の点さえちゃんとしてればあとは画像に使っちゃっても大丈夫じゃね!?ということでハーフトーンパターンに置き換えちゃうようだ。そんなんで読めるんかいな。 さすがに真ん中の点さえちゃんとしてればってのは厳しすぎるかもしんないので、見た目は悪くなるもののもうちょっと保守的な割り当てもできるようになってるとのことで安心……かどうかはわからないが、まあ実用的か。

評価を見ると、角度はともかく、ノイズやぼけに弱い感じのようだ。ぼけは確かに弱いだろうなぁ。あとリーダーによっては全然読めてなさげ。リーダーがクソだとどうしようもないのはまあ仕方ない。

見た目はだいぶ良いい感じなので、いい環境で読める前提であればそのまま使えそうだなぁ。話も難しくないし。

Interactive by-example design of artistic packing layouts

世界の蝶とか世界のクジラみたいなのを1枚に並べたポスターみたいなのを作ろうとした時に、手で並べるとかきついし、なんとか並べたとしても関連性の高い順に並べるとかマジ無理なので自動でできるようにした、という話。

なんとか並べるのは既存の研究でもあったけど、並べようとしたデータに属性をつけといて、こいつは左下、こいつは右上みたいに手動で置いてやると対応する属性順にソートしてうまいこと並べてくれるという話だった。なるほどなー。楽しそう。

もっと詳しいことは忘れた。論文読んでくだちい。

Biharmonic diffusion curve images from boundary elements

これがさっぱりわからなかった。

二次元のベクター画像にグラデーションで色をつけるのに、境界で(?)何かするという話、なのかなぁ……?

残念ながら何をやる話なのかすら理解できなかったので完全に意識飛んでるタイムだった。いや寝てはなかったはずだが……。

Eyes wide open

SIGGRAPH ASIA 2013最後のPapersセッション!概ね立体視の話か。

Near-eye light field displays

LightFieldDisplayのヘッドマウントディスプレイを作った話。NVIDIAの人だった。

LightFieldDisplayてのはちっこいレンズを画面の前に置いて、画面側はレンズに対応したちっこい画像を表示することで立体視みたいなことになるという奴。 で、それでHMDを作って立体視なんだなーと思ってたんだがそうではないようだ。というかHMDなので左右別な画像出すだけで立体視になるんだったそうだった。

何がうれしいのかしばらくわからなかったんだが、普通のHMDだと上手い感じにピントを合わせるのにディスプレイからレンズまで距離が必要だが、LightFieldDisplayだとピントが適当に合うのででかいレンズでピント調整する必要なく、レンズのすぐ後ろにディスプレイ本体が置けて奥行きが小さくできるとのこと。そうかLightFieldDisplayはピント合わせが融通効くっていう利点もあるんだなぁ。というか普通のHMDが目の位置からだいぶでっぱった形になるのはレンズの焦点距離の問題だったのか。

しかし残念ながら解像度感が相当下がってぼけた見た目になってしまうようだ。詳しい話はいまいちわからなかったが、沢山表示する小さい画像間である程度オーバーラップして表示をする必要があって、それで解像度が下がってしまう的な話だったように理解した。

すぐ使い物になるような類の物ではなさそうだけど、そのうち薄くなるといいっすね。

Joint view expansion and filtering for automultiscopic 3D displays

二眼式立体視用のコンテンツを多眼式ディスプレイ用の自動補間してやろうという話。

何やってるのかは聞いててもよくわからなかった……。深度推定する方法とは違うみたいな話であったのはわかったけど。

今論文確認してみると深度推定も時間方向の情報も使わずにPhase-based Motion Magnificationというのをやってるようだ。 それが何なのかはちゃんと読んでないのでやっぱりわからんが、ピラミッド分解?(pyramid decomposition)とか書いてあるのでなんかうまい感じに分解して視点位置に合わせてずらすっぽい。

時間方向の情報も使ってないし単純なのでGPUでリアルタイム処理できるとのこと。レンダリング後の画像から多眼式に拡張できるのはなかなか興味深い。 ゲームなんかのリアルタイムレンダリングでは最初から多眼式で描画すればいいんだけど、でも何枚もレンダリングするのは重いから2枚だけ描いて後処理で拡張っていう手もあるかもね。まあでもその時は深度値も同時に出力できるからもっとやりようはあるか……。

A metric of visual comfort for stereoscopic motion

二眼式立体視は映像によっては疲れたりするんで快適さを計測する方法を考えてみたよという話。だったと思うんだが……。

この話は忘れたとかいう以前に聞きとれなかった。しゃべりが速いとかではなく、全く英語しゃべれてない。 学生っぽいんだが、超どもりまくって間違ってもないのに何度も何度も何度も言い直すし、しゃべる途中で考えこんだりして途切れまくるし聞くに耐えないとはまさにこのこと。 もっとちゃんと練習してこいよ。たとえ棒読みでも詰まるより全然マシだぜ。

中身?知らん。

Stereoscopizing cel animations

セルアニメを二眼式立体視化する話。 3日目朝のコースで概ね聞いてたんで内容はわかってるが。

アニメなんかだと実写程ごちゃごちゃしてないので既存の立体視自動生成や深度推定が上手くいかないので困りもの。 むしろエッジが少ないのでT-junctionというT字にエッジが交差する部分から前後関係を推定する方法を使って深度をつけましたという方法だった。

それだけだとフレームによって前後関係が入れかわっちゃったりするので、時間方向での整合性も取ったり工夫してるとのこと。

一見ちゃんとできてるように見えるのですごいなーと思ってたが、今のところ制限として奥行き方向に斜めになってるオブジェクトは作れないとのこと。 つまり平面の板が並んでるのしか正しく判別できなくて、奥行き方向に徐々変化するオブジェクトの深度は作れないと。 言われてみればそうだな。まだ実用には及ばずといった感じか。

いやアニメを立体視で見たいという要求があるのかが謎なところはありますけどね……。

4日目夕方

18時。これにてセッションは全て終了でございます。ありがとうございました、わー! ……みたいなのはなくて、何事もなくセッション終了してそのままみんな粛々と帰っていった。

しかし俺はElectronic Theaterを最終日19時からいれてあるのだ。 時間がまだあるのでレストランでごはん。初日に食った炒飯がおいしかったので別な炒飯を頼んでみたが、そこそこだった。 初日に食ったやつの方がおいしかった。そっちの方がちょっと高かったしな。

飯食っても時間があるのでうろうろして待ってるが、既に撤収が始まっててちょっと物悲しい。 適当に待ってたら入っていく人がけっこういるのでもう入ってもいいんだろうか?しかしチケット確認とかしてないが? でもみんな入ってくしなー俺も入っちゃうかー。 入って待ってたら、しばらく後から入ってくる人はなんかパンフみたいなの持ってた。あーやっぱりまだ入っちゃだめだったんじゃん!まあいいけど。

シアターはまあ普通にCGアニメが流れてるだけなので何も考えずに2時間見てるだけ。 最後に流れた5 Meters 80が賞を取っただけあって面白かった。キリンがなぜか次々にプールで高飛び込みするってだけなんだけど。

シアター終わったら本当に終わり。お疲れさまでした。みたいのもなく粛々と帰っていった。 撤収はほとんど終わっててちょっと寂しいわ。

4日目夜~5日目

シアター終わったらあとは帰るだけ。そのまま帰国ですよ!

香港駅までは電車ですぐ。香港駅から空港までも空港線で25分くらいで着く。 チェックインは朝済ませてあるので荷物無いのが助かる。

チェックイン済んでるのであともう出国審査して飛行機乗るだけなんだけど、飛行機は1時でまだ22時くらい。 お土産とか買っていかないといけないかなぁと思ったが、その前に飲み物欲しい。 自販機探したけど無いな……そういや香港で自販機って一切見かけなかったわ。 店も見てみるが飲み物売ってるようなところがない。調べると到着ロビーの階にセブンイレブンが一箇所あるっきりのようだ。 なんでだよ……まあ飲み物は飛行機に持ち込めないからだろうけど。 時間はあったのでそこまで行って水買ってきた。

しばらくぼけっとしていたものの、23時くらいには店も閉まりそうな気配なのでお土産買うなら買っておかねば。 見てみるとブランド品が売ってるような店ばっかりお土産とか全然ない。日本の店とかブランド品とかばっかりだよ! 「優の良品」とか書いてあるAjiichibanとかいう店は日本の店に見えるが、実は香港の店のようだ。なんで日本パクりみたいな名前してんですかね。 袋詰めのお菓子みたいなの売ってるけどお土産っぽい雰囲気ではないのでやめた。 結局ドラッグストアと半ば一体化してる土産物屋で香港行ってきました的雰囲気のマカダミアナッツチョコを買った。HK$70くらいだから900円くらい?安い。 手持ちのお金ももう少なかったし、あんまりかさばる物も持ちたくないなーと思うとこのくらい……というよりは香港らしい物がこのくらいしかなかったわ。

買う物買ったし、もう用もなかろうと出国審査通っちゃう。入国審査よりましな雰囲気ではあったが、何か言ってるから何かなーと思ったらやっぱり隣のブースの人と雑談してるだけだった。おい。

出国したあとはもう店とかもあんまりやってないし、ゲート付近で2時間程ぐだぐだ待ってるだけ。深夜の空港の雰囲気すげーいいっすね。 たまにピコンピコン言いながら走ってるカートが素敵。

何事もなく搭乗時間になったので普通に搭乗。 飛行機に乗ったら席の後ろが丁度仕切りになってるところで倒し放題だった。嬉しい。 寝たいんだが機内食はいつ出るのかとびくびくしていたが、離陸後すぐに出た。 箱に入ったサンドイッチとフルーツとカップケーキにパックジュースで、寝てる人のところにも強制的に置いてった。 なるほど深夜仕様なのか。

サンドイッチとかカップケーキは普通だが、パックジュースが漢字でなにやら書かれた黄色の怪しい物体でクソ不味かった。Vita lemon teaみたいなことが書かれているのでレモンティーのつもりのようだ。これがか。失敗したパイナップルジュースみたいな味してんだが。impressive tasteとか書かれてて、確かに印象的な味ではある。不味い方向でな。

食ったらあとはうとうとしてる間にいくらか寝てた。シート倒し放題でうれしいと思ってたんだが、すぐ後ろがトイレのようでひっきりなしに人が行き来してたのがちょっと残念だったが仕方ない。たぶん1時間半くらい寝てたらそろそろ着陸するからシートの位置戻せシートベルト締めろとか言われて起こされた。それから着陸するまで30分以上あったがな。

着陸したら降りて入国審査して荷物を見つけだして税関通って終わり。税関は最近香港いろいろあるからねーとか言われてスーツケースの中身チェックされたが服しか入ってないねって言われた。そりゃそうだよ。

到着ロビーに出たらさっそく自販機で飲み物買うぜ!いくらでも置いてあるぜ!やっぱり日本だよな! 帰りの電車をあらためて調べるものの、やはり7時17分だかのアクセス特急が一番早くて楽なようなのでそれで帰ることにした。 乗り換え無しで家の近くまで着くので非常に楽だ。

ということで家についたのが9時過ぎから9時半くらいだったかな。 帰って軽くごはん食って寝たら14時過ぎくらいに起きた。 疲れはしたけど思ったより元気だなー。ずっと座りすぎでとにかくケツが痛くなったけど。

どうでもいい感想など

香港は中途半端な場所だったなー。 中国語(広東語らしい)ではあるんだけど、あんまり中国っぽくもなく、イギリスなわけでもなく、日本の物とかたくさん売ってるけど日本なわけもなく。

中途半端さというか特色の無さはSIGGRAPH ASIA自体にも出てるのか、横浜の時にあった日本語セッションのような現地語セッションはないし(日本だけかあんなのあるのは)、 中国企業のセッションとかあったかもしれないがそうそう見かけないし。 ILMスタジオはシンガポールだしモバイル系は韓国だしで、一応中国の大学の人のセッションはけっこうあったけど、あんまりCG関連が盛んな様子はなさそうというのが残念だ。

香港の街自体はあちこち行ってはないが、やたらとATMがあるのが目についた。日本では自販機あるくらいにATMがある。やたらとある。なんでそんなにあるのか謎だ。 公共交通機関がたくさん走っててしかも安いのはすごいな。乗ったのは地下鉄だけだけど、4駅程乗ってHK$5、つまり65~70円くらいとかめちゃくちゃ安い。 バスも各路線どの時間帯も10分に1本くらいは走ってるようだし、さらに路面電車まで走ってる。いずれも二階建て。朝とかはバスからぞろぞろ人が降りてくるのでよく使われてるようだ。そりゃまあそんなに安くて便利なら使うわ。

来年のSIGGRAPH ASIAはSHEN-ZHEN……深圳らしい。 また中国か、でも中国広いし今度は北の方かな、と思って調べてみたら香港のすぐ隣のようだ。 ふざけんな!なんでしょっちゅう同じ場所でやってんだよ!! さっきも書いたけど中国企業とかのセッションとかないからあんまり面白くないんですけどー。 まあお金もかかるし疲れもするので少なくとも来年は行かないだろうからどうでもいいがな。 また日本でやってほしいわ。


ページのトップへ | トップ «前の日記(2013-11-27) 最新 次の日記(2013-12-12)» | 編集 | kumaryu.net by kumaryu