くまりゅう日記

もっと過去の日記

[.NET | BeOS | Blender | COLLADA | fossil | mono | monotone | NPR | OpenGL | PeerCastStation | Riko | Ruby | Silverlight | TRPG | XNA | ゲーム | ゲーム作り | ]


2017-01-18

日記

ここしばらくはなんかあったかな。特別なにかはなかった。 土日はなぜだかずっとふとんの中に居た。

エアコンつけてると部屋の上下でだいぶ温度が違うことがあったのでサーキュレータを買った。2000円くらいからあってどれがいいのかよくわからんかったけど、そんな機能はいらんし一番安いので十分そうだったので2000円のを。 一番弱い静音モードは静かだが、弱になるだけでだいぶ音がでかい。とりあえず静音で動かしといてみたが十分効果があったので問題無さそうだ。

技術書典2は受かったようだ。といっても全員受かったような雰囲気だし、まあ溢れる程ではないだろうと思ったので予想通りではあったが。 いよいよもって真面目に書かないといけないようだ。 内容はストリーミングのフォーマットだのプロトコル云々について書きます。


2017-01-10

日記

またしばらく書いてなかった。日記書くにも意外と時間かかるんでな。

年末はコミケ行ったり飲み会あったりで忙しかった。 年始は4日朝まで帰省してだらだらしてた程度。ずっと膝にネコが居た。

コミケとか行くと俺もなんか本作りたいなーと思うんだが、どうせすぐ飽きるだろうしコミケに出す程の物も作れないだろうしやめといたんだが、毎度やってるPeerCastのオンラインイベントに出すんだったら良いかと思ったので作ることにした。PDFだけど。

イベントが3月18~20日なんだが、4月9日に技術書典2があってサークル募集してるってのに気付いた。どうせ書くんだし期日近いし、受かったらついでに印刷するって感じで申し込んでみるかー。 7日中に申し込み完了だったので急いで内容決めて申し込んでみたけど受かるかな?まあ受かんなくても書かなきゃいけないんだが。

[PeerCastStation] FLV → MPEG-2 TSへの詰め替えの目処が立つ

作業は地味に進めていて、FLVからMPEG-2 TSへの変換はできた気がする。H.264とAACだけだけど、それ以外のFLVを使うことはほぼ無いので問題はない。

AACの詰め替えにちょっと苦労してたんだけど、FLVには生データで入ってくるAACのパケットに、MPEG-2 TSではADTSヘッダてのを前にくっつけて入れてやるだけで行けるようだ。まあそのADTSヘッダのフォーマットが分からなくてMPEG-2の仕様書見にまた図書館行ってコピってきたりしてたんだが。

FLVを受け取ってMPEG-2 TSに詰め直して吐き出すだけのプロキシサーバ的なのを作ってPeerCastStationから出力したFLVを食わせてみたんだけど、VLCでもWindows 10のWMPでも問題無く視聴できた。よしよし。

今は試しにRubyで作ってたんで、あとはこれをC#に移植してPeerCastStationに取り込めば一応は完成となる。コンテナ変換の仕組みは今無いのでその口を作るところから検討しないといけないんだがな。

MPEG-2 TSで出力できただけでは実際そんなに嬉しくもないので1、最終的にはセグメント毎に区切ってHTTP Live StreamingやMPEG-DASHで吐き出せるようにもしたい。そのあたりの仕様も調べないといけないが、これらは無料で仕様書が見れたはずなんで、少なくとも資料収集で困らないのは助かる。

  1. Windows 10なら(8.1もいけるかも?)Windows Media Playerで視聴できるって利点はあるものの、インターネットキャッシュフォルダに延々とファイル溜め込むのであんまり便利ではない。


2016-12-21

日記

喉鼻は良くなった。まだちょっと痰がからむ程度。

しかし暖房としてエアコンをつけると湿度が下がりまくってやばいので加湿器を買うことに。 毎年春頃に安くなるからその頃に買おうと思って忘れるを繰り返してたんだがもう我慢ならん。

加熱式のやつが欲しかったんだけど、とても安い奴を除くと急に高くなる。さらに消費電力がすごかったり、手が届きそうな値段のやつはなんか消耗品が別に必要だったりと買ってからもめんどくさそうだ。

仕方ないのでハイブリッド式という超音波式だけど一応あっためるみたいなやつを買った。7000円くらいで湿度センサーが付いてて自動運転してくれるやつだ。なんか40℃まであっためるとか書いてあってそれ意味無さそうだなーと思ったものの、自動運転のやつが他に無かった。

届いて自動運転にしといたら、センサー側までなかなか湿度が上がらないらしく、目標65%のところが、温湿度計見たら80%越えにまでなってて慌てて下げといた。後でもっかいやったら妥当なところで弱まってくれたりしたので、それなりに湿度がある状態からなら大丈夫そうだ。

加湿器が届いて湿度の心配が無くなったと思ったら、今度はガスコンロの調子が悪くなってしまった。赤い火が出るようになって不完全燃焼してるっぽい。取説読むと目詰まりしてるから掃除しろって書いてあんだけど、見てもそんなに汚れてないな……。あと2口あるうちのあんまり使ってない方もやっぱり赤い炎が出るようになってしまったので汚れじゃなくてなんか内部とかが壊れたのかなー?困った。

どこ掃除したら直るんだろうと調べたら、なんか加湿器付けると水道水の成分に反応して炎色反応で炎がオレンジになることがあるとか出てきた。超音波式だと起きやすいらしい。すごい思い当たる節があるな……。加湿器止めてしばらくしたら普通に青い炎が出るようになった。これじゃん。壊れたりしてなくて良かった。

VPNつながらない問題

結構前にIPv6を使うために家のルータを取り替えたんだが、そこでVPNサーバにしてたMac miniにL2TP/IPsecの接続ができなくなったので四苦八苦していた。

つながるようになるまでは大変だったんだが実際やることは単純で、指定されたUDPポートを開けてなんかいじったVPNサーバの設定をちゃんとしておくだけだった。ルータのIPsecパススルーは要るのか要らんのかよくわからない。

あとmacOS ServerのVPNページでDNSサーバとしてルータのIPアドレスを一個追加しておく。これ入れないとなぜかL2TPの認証を開始してくれないようだ。何のエラーも出ないけどつながらんから相当はめられた。

こんなんでつながったんだが、VPN経由でLAN内を見てる分にはなんら問題ないがVPN経由でインターネットを見に行くと一部のサーバにつながらない。困ったことに一部だけつながらないようだ。なんで……?

なんでなのか調べまくったけど検討がつかないので一旦諦めた。同時期にOSXだかServerだかのバージョン上げたりしちゃったからそれが影響してんのかなぁと。

OSXで使える他のVPNサーバが無いか調べるとSoftEtherが使えるようだ。なんかSoftEtherってうさんくさい感じがあるから好きじゃないが試すだけやってみよう。 思ったより簡単に設定できてつなぐところも簡単にいった。OSX標準のVPNサーバだとなぜかつながらなかった外のサーバもちゃんとつながる。やったー……? ……肝心のLAN内のマシンにつながらんじゃん。Mac mini自体のサービスにつながらないってなんでじゃー!

もうMac miniがダメなんじゃないかと思ってWindowsのSoftEther入れてみたらLAN内も外もちゃんとつながるサーバになってくれた。しかしWindowsマシンは常時起動してないからサーバにできないのだよ……。困ったなぁ。

ドキュメントなんぞを調べつつなんでWindowsで動くのか考えてたら、普通に使ってるEthernetのポートを仮想HUBのブリッジに設定しちゃいけないっぽいのに気付いた。Windowsだと仮想ネットワークインターフェースみたいなのインストールされてるから大丈夫なんだろう。じゃあどうすればいいんだろうというのがよく理解できてないが。

ていうかmacOSでSoftEther動かしてるとKernel Panicで落ちてたりするんで、上手く動かす方法分かっても運用に不安があるぜ。

とりあえず今はmacOS ServerのVPNサーバをまた使えるようにして外につながんなかったりするなーと困ってる状態。最悪外にはVPN経由しないようにすればいいだけなので良いと言えば良いんだが、そこらの公衆WiFi使うような場合はやっぱりインターネットにもVPN経由できるようにしときたいよね……。

LAN内にHTTPプロキシ建てとく手もあるかな。めんどくさすぎるわな。

なんとなくIPv6が悪さしてる気もするからその辺いじって試してみるかなぁ。


2016-12-12

日記

またしばらく日記がなんたら。

風邪引いてしまって喉鼻がつらい。熱は無いがちょっとしんどさだけがあった。幸いもうしんどくは無くなったが鼻喉はまだ調子悪いな。つらいってほどではなくなったが。

金曜夜からPeerCastハッカソンとかやってたので参加してた。 事前にはTabletop Simulatorをいじったりツール作ったりしようかと考えてたけど、調べたらやりたいことは標準か既にあるツールで出来るもんだったので不要だった。あとから考えたらTabletop Simulatorでゲーム作れば良かったかもな。 結局RustでVulkanいじるだけの作業をしてたが、三角形くらい描けるだろうと思ったらそこまで到達しなかった。どちらも調べながらでは一日じゃ無理か……。

日曜はゲームマーケット行った。TRPG関係はいつも多くはないんだが、今回はクトゥルフがそのうち半分くらいあってバリエーションに乏しい……。いくらか良さげなのはあったが行ったのが遅いこともあって軒並み売り切れていた。 TRPGはやっぱりコミケの方が沢山あるし、コミケで買えばいいか。一日目だったはずだから行けるし。

あとは帰ってきてからハッカソンの発表会やって終わり。やらなきゃいけない作業がけっこうあるけど進んでいない。


2016-11-21

日記

またしばらく日記書いてなかった。作業がそこそこ進んでるので書くタイミング無くてなぁ。

銀歯が取れてしまったので近くの歯医者に行ったが案の定虫歯になっていたのでまたしばらく歯医者通いだ。だいぶ混んでてなかなかいい時間に予約とれないのがすげえな。

[PeerCastStation] FLV → MPEG2-TSへの詰め替え

最近の作業はFLVからMPEG2-TSへの詰め替えをせっせとやっている。 資料集めてきたしね。

詰め替えができたら細切れにしてHTTP Live StreamingとかMPEG-DASHで出力することによって、ブラウザとか各種プレイヤーで見易くならないかなーという魂胆だ。WMVはトランスコード必要になるのでそのままでは無理ですけど。

しかしFLVにぶちこまれてるAACだのH.264の中身はどっちかというとMP4形式に入ってるものに近いのでMP4の方が簡単だったかもしれん。

いろいろ資料とにらめっこしつつなんとかそれっぽいデータを作れたんだが、ffplayでは再生できるもののWindows Media PlayerやVLCでは再生してくれない。一瞬再生してくれそうに見えるんだがすぐに終了しちゃう。なんだろなー。

ffmpegで変換したTSファイルを見ていると、SPSとPPSの後にIDR pictureが入ってくるんだけどこれどっから持ってきたものなんだろうか。元のFLVファイルにはIDR pictureはだいぶ後の方にしか入ってないんだけど、ここまでスキップしないとだめかなぁ。と、やってみたけどやっぱだめだった。うーん、わからん。

ffmpegのソースを見たけど難しくて流れがよくわからん。単純にコピるだけでというわけではなさそうだがどうなんだろな。もうちょっとだとは思うんだが……。

NanoPI NEOを買った

NanoPI NEOっていう小型Linuxマシンを買った。

名前から想像できるようにRaspberryPiみたいなARMのSoC使って安いマシンにしちゃってるやつだ。

RaspberryPiでいうとZeroあたりのポジションで、$8くらいからとお安い。 RaspberryPi Zeroと違うのは画面出力がないかわりにEthernetの口が標準で付いてるところ。あとCPUがパワフル。

$8からではあるがメモリ512MBにすると$10になるし、ヒートシンク買うとさらに$3増えるしケース買うとさらに$3増えるけど、合計$16ならまあ悪くない。ここからさらにmicroSDとUSBの5V2A電源が必要になるので安くはないんだが、それはRaspberryPiも同じなんで……。

似たようなのでOrangePi Zeroというのもあるんだが、こっちはCPUがちょっと廉価版なかわりにWiFiが付いてる。しかしまあWiFi使わないし(当然技適通ってないし)、OrangePi Zeroにはないケースやヒートシンクが標準で買えるのはうれしいのでNanoPi NEOにしといた。

電源とmicroSDは家にあるの使えるだろうと、本体とヒートシンクとケースだけ買ってみたが、送料がけっこう高かったので思わず2セット買ってしまった。まあ送料もその分高くなったから微妙なんだけど、2セットで送料込み5000円くらい。まあまあかな。注文したあと音沙汰がなくて大丈夫かよと不安だったが、10日くらいで唐突に届いた。全く音沙汰ない状態から届くもんだからびびったわ。

組み立てはドライバー一本で簡単。あとどこのご家庭にも1枚くらいは余ってるmicroSDに落としてきたイメージ焼いて、どこのご家庭にも余ってるLANケーブルつないでどこの(中略)5V2A出せるUSBのACアダプタつなぐだけでちょっとほっとくと無事起動した。 DHCPで勝手にアドレス取ってきてSSHでつなげるようになってるので、なんとか頑張って割り当てられたIPアドレス調べてSSHするだけだ。

標準のイメージはちょっと古めのUbuntu Coreだった。とりあえずmonoを入れてみてPeerCastStationを動かしてみるとあっさり動くし、普通に快適に使える。見た感じ4コア中1コアでも十分余裕で動いてるっぽい。意外とパワフルだなぁ。 まあAndroidスマホが動くようなSoCだし、そりゃペカステだけくらい余裕で動かないと困るか。

ffmpeg入れてトランスコード試そうかと思ったらffmpegのパッケージが見つからない。Ubuntu Coreだからだろうか。公式のイメージは更新されてたりする気配があるわけでもないし、これ使ってる理由も無さそう。メンテされてそうなArmbian使った方がいいかな。 Allwinner H3のビデオプロセッサでハードウェアアクセラレーション使える版のffmpegを作れるらしいが、これは自分でビルドする必要があるぽいし、Ubuntu Coreでは難しかろう。

しかし動いたとしてけっこうあっちっちになるから実用になるかどうかは微妙だな。まあやってみなきゃわからんし、実用になったらラッキーということで。

最終的には電源とLANケーブルをつなぐだけで簡単にPeerCastを見れるデバイスとして整えて、あわよくば頒布したい。3000円くらいで。たぶん5台くらいは売れるだろ。


2016-11-08

日記

だいぶ寒くなってきた。もう11月だしなぁ。

3日から4連休だった。金曜日は強制で有給ぶちこまれる日だったのだ。有給消化率上げる施策らしいが、俺みたいにほっといてもきっちり使い切る勢としては好きな時に休めなくなるからやめてほしいんだが。

3日は髪を切りに行って、4日は平日なので空いてるだろうとあそぶ!ゲーム展に行ってきた。埼玉だから遠いのよなとか思ってたがべつにそんなに遠いということもなかった。しかし駅から会場までが遠くて20分くらいは歩くし地図ないと辿りつけないような場所なのはちょっとつらい。周り住宅地だからなんにもないし。

ゲーム展は思ったより小さくてメジャーな物しか置いてないから、珍しいものでもなかったかなー。Stage 2ということで1982~90年頃という俺がちょうど子供の頃のあたりの物なんで知ってるわー的なのばっかりというのもある。ファミコン・スーファミの時期だしね。体感ゲーム以外は今でもアーカイブ的なのでだいたい買って遊べそうなものばかりだった。 しかし解説が結構面白かったので、ゲーム自体であそぶよりそっちが良かったね。

あと常設展が普通に面白かったのでおすすめ。小学校の見学が来てて子供いっぱいだったのであんまちゃんと見れなかったのが残念だ。子供らはゲーム展の方は引率されてさっさと通り過ぎていった。むしろこっちの方が興味深かったろうにかわいそうに……。

別で8K放送の試聴というのもやってたんで見てきた。解像度高いのはわかるが、でかいスクリーンにすごい音響施設でほらすごいでしょ?家でも8K見たいでしょ?と言われても、こんなおうち無いでしょ?としか言いようがない。フレームレートについては何も書かれてなかったんだけど60フレームはあったのかなぁ。けっこうなめらかだった気がする。まあクラシックコンサート的な映像だったんであまり動き無かったんですけど。係員に聞けばよかったな。解像度より先にフレーム数上げた方が絶対綺麗だって。

土日はPeerCastStationのリリース作業しないとなーと思いつつ思いっきり寝てた。土曜日には本読んでごろごろしてただけで、日曜日は起きて腹減ったなーと思いつつ寝てたら夜になったのでそのまま寝た。月曜は寝過ぎて疲れたくらいだったぜ。


2016-10-29

UISTレポート

UIST2016のレポートです。

全体の感想は前の日付のやつ見て。

キーノート: Smart Headlight: An Application of Projector-Camera Vision

キーノートってそんな面白い話じゃない可能性があるのであんまり期待してなかったんだけど面白かった。

水滴を落として水滴の位置をカメラで検出しそれに合わせてプロジェクタで画像出すことによって立体ディスプレイ!てやつが結構前のSIGGRAPHで出したけど、その応用で逆に水滴を避けて照らすこともできるんじゃね?!て話。すげえ、その発想は無かった。

車のヘッドライトを雨降ってる時に照らすと、雨ばっかり明るくなってしまい相対的に先が見えなくなってしまうので雨を避けて照らすことで見易くしたいって話だった。 検出と照らすのにカメラつけたプロジェクタを載せるのででっかい怪しい車になってしまうものの、結構いい感じに見易くなるみたい。具体的な数字は忘れたが、動画では雨降ってるのが気付かなくなる程度には見易くなってるように見えた。

あと霧はさすがに無理だとかなんとか。そりゃそうだな。 質問で霧に立体投影とかできるんじゃねとかいうのがあったが、立体投影するには投影するプロジェクタ2台間の距離も必要で車にのっけらんね、という話だった。なるほどなー。

まとめとしてはプロジェクタは投影制御できる照明だから楽しいぞという話だった。

Session 1B: Touch and Beyond

最初のセッションはこれ

FaceTouch: Enabling Touch Interaction in Display Fixed UIs for Mobile Virtual Reality

ビデオ

VR HMDの操作方法として、外側をタッチ操作できるのが良かった、という話。Vitaの背面タッチみたいな感じで操作する。

右側だったり、タッチパネル手に持ったりと他のやつも評価してみたが、顔の正面側にくっつけるのが一番良かったとのこと。 そりゃまあそうなるだろうなという結果だが、今は側面の奴が市販されてたっけ?なんで正面に作らないんだろな。

Supporting Mobile Sensemaking Through Intentionally Uncertain Highlighting

ビデオ

タッチ操作で文字列選択するのってめっちゃ難しいので、なんとなくで選択しておいてあとから抜き出すとかそんなだったような。

選択範囲自体をぼかしておいて、文章を解析して近い部分をあとから広げたり狭めたりってのができるようだけど、それよりきっかり選択できる方が人気だったとかなんとか。まあ気持ちはわかる。

HoloFlex: A Flexible Light-Field Smartphone with a Microlens Array and a P-OLED Touchscreen

ビデオ

曲げられるディスプレイに、さらに小さいレンズ(レンチキュラー的なの……ていうかまるっぽい奴か)を貼りつけて曲げられるし裸眼立体だよーって話。

どうも曲げられる方が主なのかな。曲げセンサが入ってて、曲げ具合を入力として操作できるとかそんなんだったようだ。 実際にデモで見せてもらった時には曲げて音鳴らす楽器みたいなのをデモしてた。しかし壊れて画面が映らなくなってたよ……。

AuraSense: Enabling Expressive Around-Smartwatch Interactions with Electric Field Sensing

ビデオ

スマートウォッチに電場を感知するセンサをくっつけて各種ジェスチャを識別するってやつ。 おーすごーい、とか思ったのだが、次の日には追加センサ不要とかいうもっとすごいやつが発表されていたのであった……。 いやこれはこれですごいんだが。

Session 2B: Interaction Techniques

次はこれ。

Beyond Snapping: Persistent, Tweakable Alignment and Distribution with StickyLines

ビデオ

スマートガイド(イラストレータとかにあるアレよ)のさらにすごいやつ。

早くこういうの欲しい。

Porous Interfaces for Small Screen Multitasking using Finger Identification

ビデオ

スマホのクソ狭い画面でマルチタスクをするとアプリの切り替えがとてもめんどい。なので重ねられるようにしました!てやつ。どう見ても最悪に使いづらそう。

Mining Controller Inputs to Understand Gameplay

ビデオ

コントローラ入力だけを見てゲームを分類するとかなんとか。

コントーラ入力のシーケンスを見てなんか忙しい面やってんなとか、ジャンプばっかりする面やってんなってのを分類し、こんな面が好きな人はこの面も好きですみたいなのを(実際出すかどうかはともかくとして)出せるようにする。

なるほどな。忙しいゲームが好きなあなたはこんなゲームも好きでしょうみたいなのを出せるようになるってことか。

TRing: Instant and Customizable Interactions with Objects Using an Embedded Magnet and a Finger-Worn Device

ビデオ

磁気センサを指に付けて、磁石を置いとくとその位置関係を取得できるってやつ。 あんまり内容覚えてないな。 センサーでけえ……。

Session 3A: Touch It, Feel It

タッチ系が多いですが、これはむしろタッチ出力、つまり触覚系セッションですね。

Designing a Non-contact Wearable Tactile Display Using Airflows

ビデオ

直接振動とかでなく空気を吹きかけて触覚を再現するてやつ。 首筋とか手首とか頬とかか効くらしい。ちょっと嫌だなそれ……。

RealPen: Providing Realism in Handwriting Tasks on Touch Surfaces using Auditory-Tactile Feedback

ビデオ

タッチペンに音と振動を仕込んで紙の書き味を再現しようてやつ。 アイディアは良さそうに聞こえるが、音と振動でマーカーの書き味を判別できたのが75%くらい、音だけで判別できたのは50%くらいと、ちょっと費用対効果が微妙な気がするぞー?

Muscle-plotter: An Interactive System based on Electrical Muscle Stimulation that Produces Spatial Output

ビデオ

紙へ文字などを書くだけでコンピュータへの入力になり、俺の手を使って勝手にコンピュータがグラフとか描いてくれるやつ。すごい。こわい。

なんか数式を書いてグラフの枠線を書くと、コンピュータがあーグラフ描こうとしてんだなーと判別し、ユーザーが直線を描こうとするだけで筋肉を勝手に動かして数式に沿ったグラフを描けちゃう。

車の絵を描いて線ひっぱると空力シミュレーションしてそれに合わせて線引けるように筋肉動かしちゃう。

実際使えるかっていうとかなりどうかと思うけど、未来感は溢れてた。

Haptic Learning of Semaphoric Finger Gestures

ビデオ

あれ、これなんだっけ。あんまり覚えがない。

手話みたいな何かを学習するのに触覚を与えて学習すると覚えやすい(長期間覚えてられる)とかそんな内容だった気はする。

きっと触覚が無かったから内容覚えてないんだな。

GyroVR: Simulating Inertia in Virtual Reality using Head Worn Flywheels

ビデオ

フライホイールを頭にくっつけて慣性を再現するってやつ。頭の前後に着けてみたが、前が酔いづらいくて効果高いとかなんとか。

フライホイールとしてHDDをくっつけてるのが笑える。

Session 4B: Sensing

これ朝だからちょっと遅刻していったんだよなぁ。

ViBand: High-Fidelity Bio-Acoustic Sensing Using Commodity Smartwatch Accelerometers

ビデオ

これすごいやつ。なんだが、途中から入ったので聞いた時はすごさがあんまりわからなかった。 ベストペーパーとかになってたのでちゃんと確認したんだが、ハードウェア無改造の市販スマートウォッチでソフト的に高頻度で加速度センサーを読むだけでかなりのジェスチャ認識ができるってやつだった。すげー!無改造かよ!

proCover: Sensory Augmentation of Prosthetic Limbs Using Smart Textile Covers

ビデオ

圧力センサーだかを仕込んだ靴下みたいなので、義足の感覚を取れるようにするぜ!て話だった。 感覚取るのはいいけど上手いフィードバックが課題とかそんな感じだったような。

SleepCoacher: A Personalized Automated Self-Experimentation System for Sleep Recommendations

ビデオ

何時に寝入ったとか眠りの深さとかを記録するアプリがあるけど、取っただけでは仕方ないので、お前は寝るまでに何分かかるからそろそろ寝ろって言ってくれる奴を作ったとかなんとか。悪くはないんだけど、そろそろ寝ろってだけかー……。もうちょっといろんな指示欲しいですね。

Bootstrapping User-Defined Body Tapping Recognition with Offline-Learned Probabilistic Representation

ビデオ

スマホを身体のどっかに押し付けたってのを学習させといて、実行時にどこに押し付けられたのかを判別してショートカット的に使うとかなんとか。 そんなの判別できるのはすげーけど、使い道は難しいですね。ショートカットに使うにはめんどくせぇだろ。

Session 5A: Viz

表現系?

Eviza: A Natural Language Interface for Visual Analysis

ビデオ

自然言語での検索みたいなのを解析してデータの絞り込みやグラフ表示みたいなのを出来るようにしたって話。 元々タグ指定みたいなのでそういうのができるサービスがあるらしく、それを自然言語に対応させたような形っぽい?

普通に便利そう。

Semi-Automated SVG Programming via Direct Manipulation

ビデオ

プログラムで書いたSVGを、逆に手でいじるとプログラム側が書き変わるってのを作ったという話。 見た時はそんなん何に使うんだよっていう気がしたけど、もうちょっと高度になるとゲーム作るのに便利そうですね。

Reading and Learning Smartfonts

ビデオ

スマートフォンとか画面がちっちゃいから情報量増やすために文字をやたらと小さくしがちだが、文字小さくしすぎて見えなくなっちゃうと判別できない文字が出てきちゃうので、めっちゃ小さくでも判別はできる文字を作ったよ!という話。

日本人からすると、まずアルファベットとかいうその情報量少ない文字やめればいいんじゃねぇのという感想が先に出てくる。てかお前らが作るWebページでわざわざフォントサイズが極限まで小さく指定されてんのは情報量少ない文字使ってるからかよクソがと殺意が湧いてくる。

そして極限まで小さく暗号化され、判別つきづらい文字を色分けすることで回避するというSmartfontという名前の全くスマートとは思えない代物に閉口するしかなかった。

Interactive Volume Segmentation with Threshold Field Painting

ビデオ

CTスキャンした画像を3Dにする時にノイズ部分は取り除くんだが、あんまり閾値を低くするとノイズだらけになるし、閾値を高くしすぎると見たい部分も消えてっちゃったりする。 で、一部の見たい部分を閾値下げるのを3Dペイント感覚でできるようにしたよーっていう話。

何も無い空間に向けてペンを動かした時にこの辺を表示したいんだろうなって類推して閾値下げてくってのはすごいし便利そうだけど、CTスキャンの可視化とかしないしあんまり縁は無さそうな話だ。

Session 6B: Video & Audio

動画編集系

QuickCut: An Interactive Tool for Editing Narrated Video

ビデオ

説明とビデオ片を合わせて解説ビデオを作る時に、ビデオ片にタグをつけとくと、説明文に合わせてたぶん説明分に合うビデオ片はこれって出してくれるので並べて解説ビデオ作りやすいってやつ。

う、うーん、それだけ?

Dynamic Authoring of Audio with Linked Scripts

ビデオ

台本と実際に録音した音声が食い違ってたり順番が入れかわって録った時に、台本の方直したりとか録ってないところがわかるようにしたりとかするやつ。 録音した音声を音声認識してテキストにして、diffとって並べて台本の方のテキスト編集できるらしい。なるほどシンプルながらも効果的かもしれん。

VidCrit: Video-based Asynchronous Video Review

ビデオ

動画作った結果、こここうしてよとかいうレビューを顔突き合わせてじゃなくてメールとかでやりとりするのに、文章で書くととても大変なので、スクリーンキャプチャ+Webカメラみたいな動画でやるといいんだが、だいたいの時間は確認して悩んでる時間なので無駄。ということで動画をレビューする動画を作るツールを作ったよという話。

すごいなるほどね感。

Session 7A: Fab with New Materials

3Dプリンタ系

Metamaterial Mechanisms

ビデオ

隙間のある格子状の構造を作ることで、一つの部品で可動部分があるものが作れるよって話だった。 耐久性は考えてあるっぽいけど、繰り返し使うにはちょっと不安な気も……。

Digital Gastronomy: Methods & Recipes for Hybrid Cooking

ビデオ

CNCフライス盤とか3Dプリンタで料理作ったよという話。それだけだったが……?

A 3D Printer for Interactive Electromagnetic Devices

ビデオ

3Dプリンタに銅線や鉄線巻き付け機能を追加して電磁石もいっしょに作れるようにしたよという話。なるほど。 しかしこれだけでは便利かどうかは微妙なところ。

Foundry: Hierarchical Material Design for Multi-Material Fabrication

ビデオ

複数の材質を含むオブジェクトをデザインしやすいソフトウェアを作ったよって話。 ノードベースでオペレータをつないでいくとフラクタルな感じの3Dオブジェクトが作れるぽい。

あーこれSubstance Designerの3D版だー。

Session 8A: Crowds

クラウドソーシング系

IdeaHound: Improving Large-scale Collaborative Ideation with Crowd-Powered Real-time Semantic Modeling

ビデオ

ブレインストーミングみたいなことやってる時に分類するのが大変なので自動的に分類したい。 しかし、分類付けするのは大変なので誰かにやって欲しいけど、じゃあブレインストーミングやってる人らにやってもらおうかって話。書いてて意味わからんな。

なにかアイディアを貼り込むと、他にこれも似てるかも?みたいな提案が出てくるのでそこから似てるようなのを選んでもらうと、じゃあこれとこれは似てるんだなって学習できる的な話だったような気もする。正直あんまり理解できてなかった。

Boomerang: Rebounding the Consequences of Reputation Feedback on Crowdsourcing Platforms

ビデオ

クラウドソーシングの評価を真面目にやってもらうにはどうしようかって話。 評価ってだいたいみんな5しか付けないのでなんとかしたいってのはわかったんだが、ちょっと内容がいまいちわからなかった。

高い評価ついた人にはいっぱい仕事が紹介されるようになって、低い評価ついた人は高い評価ついた人より新しい仕事が見えるのが遅くなり、相対的に評価高い人が選ばなかったクソ仕事が回ってくるようになるとかなんとか。 なので真面目に評価するのに意味持たせたよーとかいう話だった気がするけどこれで解決しそうな気もしないので何か間違ってるかもしれない。

Habitsourcing: Sensing the Environment through Immersive, Habit-Building Experiences

ビデオ

ランニングとかウォーキングの習慣付けアプリのついでにユーザーを動かして辺りに何があるかのマップを作ちゃお☆とかいう話。

アプリで位置情報取りまくりながら、高い建物に走りましょうとか、木の周りを歩きましょうとか適当なこと言って高い建物や木があるところに移動させて、じゃあそこにそんなものがあるんだなとマップを作るらしい。うわぁ……。

VizLens: A Robust and Interactive Screen Reader for Interfaces in the Real World

ビデオ

誰かがリモコンとか操作パネルの画像を撮って、ここのボタンは電源、ここにボタンがあって1ボタン、とか説明を書くと、スマホをかざすとここは電源ボタンだのここは1ボタンだの、操作方法だのを教えてくれて目が見えない人とかでも使えるよ!てやつ。

画像を撮って説明をしっかり書きこんでくれるやつは誰なんですかね……クラウドソーシングで依頼するっぽい?

Session 9A: ~Reality

すごいVR系

Optical Marionette: Graphical Manipulation of Human’s Walking Direction

ビデオ

VR HMDにカメラを付けて真っ直ぐ歩かせるけど、実はカメラ画像が微妙にずれていってて真っ直ぐ歩いているつもりがずれて歩いてるのだ!って話。面白い。どう応用すんだって話はあるけど。

NormalTouch and TextureTouch: High-fidelity 3D Haptic Shape Rendering on Handheld Virtual Reality Controllers

ビデオ

VR内の触覚再現デバイス。 位置トラッキングできるデバイスの先っぽの台に指を乗せとくと、画面内で触ったオブジェクトの表面に合わせて台の向きが変わるので触った感が出るってやつ。

NormalTouch方は台に圧力センサが付いてて押し込めるようになっており、画面内で押した場所の固さ設定によって台が反発してきて固さ表現ができるそうな。

TextureTouchは台じゃなくてピンになっててもっと細かく表現できるかわりに押し込みとかはなさそう?あとでかい。

NormalTouchはシンプルだし、まだ有線だけど無線版作ってるのよねーって話なので期待したい。

Immersive Scuba Diving Simulator Using Virtual Reality

ビデオ

身体吊ってVR HMDかけてスキューバダイビング体験とかなんとか。なんか呼吸の再現に力入れたとか言ってたような?

てかなまりが強すぎてだいぶ何言ってるかわからんかった。systemが何度聞いてもチツテンて言ってる。sがtに置き換わってる。

Holoportation: Virtual 3D Teleportation in Real-time

ビデオ

あんまり大仰でないシステムでリアルタイムに人体とか物の3Dスキャンをして遠隔地で3D再構成レンダリングすることでその場に居るかのようなテレビ会議が!てやつ。

難しい話だったのでいまいち理解できてないが、IRカメラで深度取るのと同時に特殊なパターンをライトで投射して3D再構築しやすくするとかなんとか。そのカメラ自体がそこそこ必要ではあるようだ。といっても何十台もはいらないようだけど。

あと転送するデータ量も何十GBもリアルタイムでやりとりする必要があるそうな。どうもここ数年で現実的にってわけにはいかなそうだな。

ムービーはすごいんだけどMSなんだよなぁ。HoloLensでインチキPV流しまくってるMSなんだよなぁ1。どこまで実現できてるものなのか、盛ったイメージ映像なのか信用できない。

Session 10A: Innovative Interaction

なんだろ。その他入力系いろいろ。

SketchingWithHands: 3D Sketching Handheld Products with First-Person Hand Posture

ビデオ

手で使う道具なんかのデザインをする時には、スケッチにいちいち手を描いていかないとおかしくなったりするが、手を描くのは難しいからめんどくさい。でもめんどくさいからって描かないとおかしくなるし……ということで手を見ながらスケッチできるシステムを作ったよという話。

LeapMotionで手を検出して、それ通りに手のモデルを出したら固定させて、あとは手のモデルに合わせてスケッチを描いていくだけ!手の軸みたいのも検出してくれるのか?それに沿ってスケッチできるようになってるので2Dで描いてるのにちゃんと3Dで描ける不思議。

手はともかく3Dスケッチが上手くいくのがすごそう。

Authoring Illustrations of Human Movements by Iterative Physical Demonstration

ビデオ

ラジオ体操の解説図みたいなのを実際に動いたビデオから作るやつ。

ビデオ撮りながら1、2、3、とか言いつつ動いていくと、1、2、3、とかいう場面毎にポーズ認識して矢印を勝手に付けてイラストにしてくれる。すげー!

AggreGaze: Collective Estimation of Audience Attention on Public Displays

ビデオ

街頭広告みたいなのでどこが見られてるか調べるのに、遠くからIRで視線検出とかできるわけないだろ!ということで、顔の画像撮ってどの辺見てそうかを学習させといて、画像から視線推定できるようにしたとかそんな感じだったような?いまいちよく理解できなかった。

RadarCat: Radar Categorization for Input & Interaction

ビデオ

GoogleのSoliっていう小型レーダーデバイス(ジェスチャ検出が主な用途?)があるらしいんだが、それの上に物を置くと、物の材質なんかによって固有の波形が出てくるらしい。なので波形を学習させておけば、何が置かれたか非接触で識別できる!という話ぽい。

これすごくて、識別される側は特に何かチップが入ってるとかそういうわけでもなく、置いただけでこんな感じの物でしょうって識別できちゃう。形状とかにも依存はするのかな?ただ形状だけでなく材質が判別できるってのがすごいなぁ。

Google Soli自体が今買えるかどうかはよくわからなかった。まあこういうの作ってるくらいだから開発者キットの一部配布みたいなのはやってんのかもしれない。2016年秋に開発者キットできる予定とか書いてあったし。

キーノート: ambient

なんか有名なデザイナーの人の話だった。無印良品のデザインとかもやってる人っぽい。

技術者じゃないんでーという話だったんで、まあデザインの話なのでよくわからんかった。

その他

デモとかで気になったやつ。

Zooids: Building Blocks for Swarm User Interfaces

ビデオ

協調動作する小型ロボット群。高さは2cmくらいだったか?直径は1円玉くらいのがちょこまかと動きまわって大変かわいかった。 セッションは裏で別なのを見てたので見れなかったがデモだけ見た。

Expanding the Field-of-View of Head-Mounted Displays with Peripheral Blurred Images

これはデモだけ。docomoの人がデモしてたやつ。

スマホを頭の前にくっつけるタイプのVR HMDで、目の中央にあたる部分だけレンズにするんじゃなくて、その周辺の通常目隠しになってる部分をレンチキュラーにしてしまうことで、周辺がぼやけていながらも視野角が広がった感になるていうやつ。単に目隠し部分をレンチキュラーにするだけなので安い。

確かにまわりぼけてるからちゃんと見える範囲は変わらないんだけど、明るくはなるから開放感はあってよかった。 あとなにげにスマホを頭の前にかざすタイプのVR HMDは初めて使ったんだけど、やっぱこれで十分じゃん感があった。

まとめ

まとめというか全体的な感想は前に書いたのを見てください。

以上。

  1. 加算合成表示しかできないはずのHoloLensで黒や暗色が表示できるかのような動画流しまくっちゃってる


2016-10-25

日記

忙しかったり作業が捗ってたり体調が微妙で書けてなかった。

先々週あたりから土曜日は図書館行ったり、日曜はイベントのカタログ買いに行ったりコミティア行ったり。 先週平日は水曜まで有給使ってUIST行ってたり、休みのはずなのに夜仕事行ってたりした。

図書館でMPEG-4の仕様を見る

先々週あたりからFLVからMPEG2-TSへの詰め直しを書いてたんだが、どうしてもMPEG-4の仕様を調べないとわからん。

MPEG-2 TS(H.222.0)やH.264の仕様書はうれしいことに無料で落とせるんだが1、AACのフォーマットがMPEG-4の仕様書見ないと書いてないし、FLVに入ってるH.264やAACのフォーマットはMPEG-4の仕様書を見ろっていうので詰め直しには必須だった。

MPEG-4の仕様書はISO/IEC 14496ていうやつなんだが、これが沢山のパートに分かれているうえにそれぞれめちゃ高い。パート1(システム)が2万円、パート2(ビデオ)が2万円、パート3(オーディオ)が2万円、パート10(H.264)が2万円、パート12(MP4の元フォーマット)が2万円、パート14(MP4ファイルフォーマット、たったの11ページ)が6000円、パート15(MP4にNALベースのビデオをつっこむ方法)が2万円、とまあ欲しいやつ見ようとするだけで10万円越えてきて無理だっつーの。

ちょっとだけ見れればいいんだけど2万円ずつも出すのは無理だなぁ。全体で2万円とか、パート毎に6000円くらいだったらまあいいんだけど、6000円なのは10ページ程度のほぼ中身無いやつだけで、ある程度中身あるパートは全部2万円になってるしなぁ。探すとたまに見つかるんだけどどうも怪しいというか違法アップロードされたやつじゃねーかってのしかないのでそれは手を出さない。

で、よく考えたら図書館とかありそうなので調べると、国会図書館行けばあるようだ。そこまで行かないとないのか。しかもよく見ると関西館からの取り寄せなので時間かかるそうな。うへぇ。 あとJISの本拠地みたいなところでコピーはできないものの見れそうなので行こうかと思ったが、平日昼間しかやってないようなので無理ぽい。取り寄せ願おう。

取り寄せするにも利用登録しないといけなくて、利用登録を郵送でやるとめっちゃ時間かかりそうなので先々週の土曜日に行って登録してついでに取り寄せお願いしてきた。5冊までというのでとりあえずオーディオ周りとMP4のフォーマット周りだけ取り寄せてみることに。しかし中身見れないのでどれを取り寄せればいいのかもよくわからんのが難しい。 パート3と12と14と15でいいかと。パート3は分冊になってたので2冊扱いになった。

ところ国会図書館初めて行ったけど、ほぼ閉架というからもっと狭いイメージだったが意外に広々してんのね。

で、先週土曜日に取り寄せてもらったのを見てきた。 パート3が1300ページ以上あるので大変なんだが、見たいところはだいたいAACのフォーマットのあたりなので大したことはない。パート15のMP4にNALベースのビデオつっこむあたりは重要だった。パート12も重要なんだが今はMP4直接使わないからいいか。

コピーしてもらえるんだが、1ページ26円もするのと、100枚までという制限があるおかげでコピーする範囲を絞るのがとても大変だ。とりあえずこれだけコピっとけば大丈夫だろうというあたりだけ絞り込んどいた。 国会図書館のコピーは向こうでやってもらうようになってるので、頼んで待ってるだけなんだが、90ページも依頼して30分で綺麗にコピーされてくるんだからすごい。お値段もそれなりにするが。

しかし絞り込んでコピーしたものの、やっぱりあちこちに参照入ってるからこれ一通り欲しくなるよなぁ。せめて東京館にあるならちょくちょく通って必要な部分見るってのできるけど、取り寄せだとすぐに見れない……。パート1も見たかったけど取り寄せてなかったから見れなかったし。

結局12時頃に着いて出てきたのが16時くらい。ちょっと調べて必要な部分コピってくるだけだから!と思ったのに意外とあっという間に時間が過ぎた。図書館が快適なのもあるんですけど。 あと30分くらいはコピー待ちだった。食堂で飯食おうと思ったら土曜日は15時までで、ちょうど15時に行ったので終わってたよ……。

図書館は何万円もする資料を無料で見れて一部コピーもしてもらえるんだし助かる。しかしそこそこ近くにあるからいいものの、遠くだったらどうしようもない。規格書はもう少し安くなってもらえんだろうか……。

  1. H.222.0は最新のは有料だが、一つ古いのが無料で落とせるしとりあえずそれで足りる。

UIST 2016行ってきた

先週平日は休みにしてUIST 2016行ってきた。 ユーザーインターフェース系の学会だ。

いつもは北米の方でやってるみたいだけど今回初めて東京ということで、近いし行ってみた。

えーと、個々のセッション感想はまだ書くのに時間がかかるので全体的な感想だけ。

こういうのってSIGGRAPH ASIAくらいしか行ったことなかったんだが、結構感覚が違うもんなのね。

SIGGRAPH ASIAだとぎっちりセッションが詰まってて15分くらいしか間無かったりするんだが、UISTはセッション毎に最低40分も休憩時間がある。昼休み1.5時間とかあったり。 で、休憩時間はみんな通路でめっちゃしゃべりまくってて騒がしい。SIGGRAPH ASIAだとそんなに騒がしい感じはなかったんだが、ある程度まとまった人数で来てるのが多いのか単に交流が活発なのかもしれん。 まあ会場広くないってのもあるんですけど。

あと会場の通路に人をダメにするソファーが転がってたり、飲み物が常時無料で配られており、休憩時間毎に簡単な食い物やお菓子が供給され、昼飯は弁当が配られ(しかも2~3種類から選べる)、夜はレセプションとかバンケットとかで飯が出る(1日目のデモレセプションは有料)、という、なんだこの会場は。 セッションは即時文字起こしが行なわれてて横のスクリーンかネット経由で表示できるし、さすがUIの学会(?)て感じだ。 参加者650人くらいというのでSIGGRAPH ASIAより小さくて、だからこそできるってこともあるかもしれないけどな。 てか食い物出過ぎだ。

セッションは技術的な物もあるにはあるが、思ったよりふんわりした物が多い印象。SIGGRAPHなんかだとどうやって作ったかって話になるから難しいけど、UISTはこういうのを作ってみて使ってもらってみたよ~的なのが多いのであんまり疲れなかった。逆に本当にそれでいいのかよって疑問に思うものもあったが……。

個々のセッションの感想はおいおい書きます。忘れないうち今週中には。


2016-10-05

日記

洗濯機が壊れた。

日曜に天気がいいので洗濯しようと思ったら洗濯機のボタンが一部効かなくなっていた。 水量選択とよりにもよってスタートボタンだ。 まあ前の週に一部LEDが点かなくなってたりしたのに気付いてたのでさすがにそろそろ買い替えないとなーと思ってたところではあった。 もう13~14年も使ってるはずだし、そもそも2年前に引っ越した時に買い替えるかなーと思いつつ放置しちゃったやつだし。

使ってたのは5kgて書いてあるので通販で調べてみるとそのくらいのは3.5万円前後で買えそう。4.5万円くらいのもあるけど在庫無しだわな。既に壊れて洗濯物が少ないながらも溜まってるのであんまり時間かかるのは困る。在庫ありのやつから選ぼう。 5.5万円出すと乾燥機能付きが買えるようだ。乾燥機能は稀に欲しいけど稀にだなぁ。

ちょっと悩んだが、5.5万円の乾燥機能付きのやつにした。稀にとはいえ欲しい場合があるならあって悪くないし、2万円程度ならそんなにでかい差でもない。2~3年に一回5万じゃ済まないPC買ってるのに10年も使う洗濯機に5.5万円出せないわけもあるまい。 まあそのあと設置と古いやつ回収費用で3500円程取られたんですけど。ポイント付くからとんとんってことで。

日曜の午後に注文したら月曜の朝には設置に来てくれた。はええ。 設置自体はべつに大変なものじゃないのですんなりと。 洗濯物つっこむと勝手に容量計って使う水の量を出してくれたりとか、前のは1時間はかかってた洗濯が35分で終わったりとか、干さずにほっとくとしばらく勝手に攪拌してくれたりとか地味に便利になった。 やっぱたまに買い替えた方がいいかもな。

乾燥機能は5~6時間もかかるようなのでまあそのうちな。使うタイミングがつかめないんだが、夜中仕掛けて寝る感じなんだろうか。

[.NET] monoとかUnixでの動作が違う

最近.NETのmonoとかUnixでの動作の違いにはめられることが度々あったので書いておこう。

Unixでは/hoge/fugaが絶対URIになる

String path_or_uri = "/hoge/fuga";
if (Uri.TriCreate(path_or_uri, UriKind.Absolute, out uri)) {
  //絶対URIだったわ
}
else {
  //パス(相対URI)だったわ
}

とかいうようなコード書いてたんですよ。 もちろん実際のコードではpath_or_uriは動的に変わる感じで。

これWindowsではちゃんと動くんだけど、monoでOSXとかLinuxで動かすと/hoge/fugaが絶対URI扱いになってしまう。 そんなばかなと思ったらfile:///hoge/fugaに展開されてやんの。おいふざけんなよ、おい。

monoのクソ野郎め……と思ってソース確認しに行ったら、monoではもう.NETのUriクラスを使うようになっていて、.NETの時点でUnixでは/hoge/fugaはファイルなーって対策が入ってた。おーい……。

Windowsでは\hoge\fugaみたいなのをfile:///hoge/fugaにするらしく、その延長線でUnixでは/hoge/fugaがローカルファイルのURLだということにするようだ。いやそれ困るでしょ普通に。

仕方ないので逆に、相対URIとして作れるかどうかを先に判定するようにして解決した。URIは一般的なプログラマが処理できるようなものじゃないからUriクラス使ってるのにそれですら嵌められるなんて、本当にURIは地獄だ……。

LinuxでTCPソケットに対してReuseAddress使うと落ちる

これはmonoだけなんだが、mono 4.6でTCPソケットに対してReuseAddressをtrueに設定するとInvalidOperationExceptionだかなんだかで落ちるようになってしまった。

いろいろ調べたところ、WindowsでのReuseAddressは他のOSではSO_REUSEADDR+SO_REUSEPORTに相当するらしく、それをエミュレートするためにWindows以外ではSO_REUSEADDRとSO_REUSEPORTの両方を設定しようとする。一方でLinux 3.9未満ではSO_REUSEPORTが無いんだかUDP以外では使えないんだかで、LinuxではUDP以外にReuseAddressを設定しようとするとエラーにしてるっぽい。なんだか変な気の効かせ方だな。

しかし落ちた時にでもすぐに同じアドレス/ポートに再バインドしたいだけのためにReuseAddressを設定してるのでSO_REUSEADDRはいらないし、いらないものを設定しようとしてエラーになるのはとても困るぞ……。

しかしmonoのソースをどんどん追い掛けていったところ、monoではソケット作っただけで自動的のSO_REUSEADDRが1に設定されるっぽい。Windows以外では明示的にReuseAddressを設定する必要は無さそうか? Windowsでは標準で他のOSで言うSO_REUSEADDRが設定されてるのと近い動きをするから標準で設定してるっぽいとのことだけど本当か……?まあどっちにしろWindowsではReuseAddress設定しないと落ちたあとで同じポートにバインドさせてもらえないんだけど。

仕方ないので、Windowsの時だけReuseAddressを設定するようにした。なんか変なエミュレートやめてほしいけど、何よりやめてほしいのはWindowsの変な動きだよな……。

NamedPipeが使い物にならない

これはまあ別に最近使ったわけでもないし.NETだからってわけでもないんだが、前から気になっていたのでついでで。

NamedPipeてのがWindowsでもそれ以外でも使えて実際名前付きパイプとして扱われるんだが……。

困ったことにWindowsとUnixの名前付きパイプは全く機能が違っているので、同じクラスで実装されても全く使えないのであった。

Unixの名前付きパイプは文字通りパイプに名前をつけたやつなんだが、Windowsの名前付きパイプはソケットとして使えないUnixドメインソケットのWindows版だった。それらが同じクラスで実装されてるので、Unixに持っていったらインターフェースが同じで使い方が全く違う謎の物になる。いやいや、そこはむしろUnixドメインソケットでエミュレートしてくれよ……。

解決方法は特に無いのでUnixはMono.PosixのUnixドメインソケット使うように実装分けるしかないんじゃないですかね。IPCに使いたいんだが。


2016-09-27

日記

忙しかったりだらけていて書けなかった。

三週間前週くらいはRubyKaigiに行っていた。 先々週はイベントの準備で睡眠時間(と働いてる時間)を削って作業してた。 先週はやたらと入ってくる休みとぶっこわれた生活リズムで何もできなかった。 今週からはまともに生きるぞー。

イヤホンのイヤーチップを早速無くしたのでもっと緩くないやつを買ってみたがやっぱりしっくりこない。SONYのじゃないとだめな耳に調教されてしまったんだろうか。SONYの買い直すか。安いし。

[Ruby] RubyKaigi 2016行ってきた

RubyKaigi行ってたんですけど。

もう細かい内容忘れかけてるのであんま書かない。

全体的な感想としてはあんま面白くもなかったなーと。 まあここ最近RubyKaigi面白くもないから行かなくてもいいかなーと思って去年は行ってなかったし、一昨年も1日目しか行ってないしなんだけど、今年あらためてフルで行ってみたけどやっぱそんなに面白くもねーなーと。 全部面白くないってわけもなく面白いやつもそれなりにあるんだが、全体的には物足りない感ある。

単に俺の興味と合ってないってのもあるんだろうけど、なんかレベル感がバラバラなのが気になる。 つっこんだ話されればどんな分野でも面白いんだが、○○の紹介みたいなのをされるだけのようなのは全然面白くない。 つっこんだ話でないならチュートリアルセッションみたいな形にしてむしろ長々とやった方がいいんじゃねぇかな。2トラックでは難しいか。

あといつものことながら案内が足りねーよ。

かろうじてD部屋の位置は案内が出てたけど、受け付けしてからすぐ分かる場所にないからすぐにわかりづらかったのは惜しい。 ○○の間で弁当配りますんでーと言われてもその場所がわからん。さすがにメインホール隣のところはわかるけどもう一カ所なんかあったよな? スポンサー部屋がメインホールの隣奥の方にあったんだが、3日目昼過ぎまでその位置を全く知らずにいた。 頑なにマップを出さないのはどんなポリシーなんだ。

てか無料提供弁当あるならあるって先に告知なりしててくれると助かるんだが。 まあ無いと思ってて来たらあるのは嬉しいので文句言う程でもないか。

フリーWiFiは人が多くなるとつながらんのは仕方ないんだがD部屋ではそもそも電波拾えない。 そのうえスケジュール表がRubyKaigiのサイトにしかないのでネットワークつながらないとかなりめんどくさい。 一枚でもいいからネットつながなくても見れるスケジュール表貼り出すとかできねーんかなぁ。

ほんとUXについては最低だよなまじで。

個々の内容についてはまあ気が向いたら書く。たぶんめんどくさいから書かない気がするが。


ページのトップへ | トップ | 追記 | kumaryu.net by kumaryu