情報更新
ツイートの記録を停止しています

 

ツイート検索

 

@tommyoshima
サイトメニュー
Twilogユーザー検索
新規ツイートの取得を再開しました!取得再開にはログインが必要です。

Twilog

ツイートの記録を停止しています

このアカウントはTwitter APIの仕様変更の影響でツイートの記録を停止しています。
記録を再開するには、Twilogにログインしてください。

 

@tommyoshima

Tommy Oshima@tommyoshima

Stats Twitter歴
6,165日(2007/05/14より)
ツイート数
14,905(2.4件/日)

ツイートの並び順 :

表示するツイート :

2023年04月05日(水)1 tweetsource

2023年04月04日(火)3 tweetssource

4月4日

@tommyoshima

Tommy Oshima@tommyoshima

ひと通り1日美術館に缶詰めでどうにかうまく設定完了したビデオインスタレーション…しかし今月12日のオープンまでに物理的に再調整が必要な可能性を考慮してオープン当日までこっちに居る必要が出て来た…地方に1週間単独滞在は嬉しいけど今は早くUnreal 5で動作するNeRFを体感するため帰りたいw

posted at 21:51:15

2023年04月03日(月)14 tweetssource

4月3日

@tommyoshima

Tommy Oshima@tommyoshima

@kwea123 @lileaLab 質問です
動画の場合4Kなら4Kで処理するように改良されたとの事ですが例えば静止画で4Kオーバーの解像度だとどうなんでしょう?RAW(DNG)でも静止画は上げられますが、その場合4Kオーバー解像度のものだとやはり4K頭打ちですか?

posted at 23:00:20

4月3日

@tommyoshima

Tommy Oshima@tommyoshima

@LumaLabsAI please give me a break! 😂 everything is moving too fast too far and I’m not able to catch up everything all at once!
仕事で忙しくなってる最中にとてつもない発表をされると仕事止めてやっちゃうじゃないかw

posted at 22:53:32

4月3日

@tommyoshima

Tommy Oshima@tommyoshima

@lileaLab 自分もそれを聞いてから色々試したのですが、例えば30fps4Kで撮ったものを全コマ静止画でアップしたり、コマの前後の重複が充分とれる程度に間引きして、更にフレーム毎に確認してブレたコマを抜いてみたりしてアップ方法を変えたら全コマじゃなく無駄なコマを抜いたものの方が仕上がりが綺麗でした。

posted at 22:38:31

4月3日

@tommyoshima

Tommy Oshima@tommyoshima

@lileaLab 素晴らしいテストですね!
Lumaのエンジニアによると動画直接からだと処理する前に自動でダウンサンプリングしてしまうので動画で撮ったものでも静止画にしてからイメージ群としてアップロードすると4Kだったら4Kの純粋な解像感が活かされるとの事でした。

posted at 22:22:50

2023年04月02日(日)8 tweetssource

2023年04月01日(土)10 tweetssource

4月1日

@tommyoshima

Tommy Oshima@tommyoshima

@CHICOFUJII 生活基盤のインフラがヤバいって確かになかなか日本には無いかもですね😅
まあいわゆる悪徳業者は結構いそうですが…しかし窃盗だの強盗だのが横行し始めてるのは凋落感が否めないですね〜😢

posted at 10:43:13

2023年03月31日(金)4 tweetssource

3月31日

@tommyoshima

Tommy Oshima@tommyoshima

@lets_rock_it 見たままがイメージとして構築されます。
NeRFを通して見ているのはメッシュやポリゴンではないので、逆光の太陽光や水面に反射する空なんかも再現されるんです。

posted at 01:06:36

3月31日

@tommyoshima

Tommy Oshima@tommyoshima

@lets_rock_it ポリゴンはあまり関係ないかもしれません。
NeRFの場合Photogrammetryと違うのはこの点ですね。
NeRFの場合点群やメッシュの書き出しはあくまでもオプション扱いで、イメージの生成はあくまでも光学的なに任意の空間から見た時のRadiance Fields…輝度場が其のまま反映されます。なので反射物も

posted at 01:02:06

2023年03月30日(木)33 tweetssource

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

@lets_rock_it そうですね。
ディテールについてはLuma AIの技術者がハッキリとデュアル魚眼からの処理の方が現状では優れてると明言してます。
ただこの例のようにデュアル魚眼だと失敗するキャプチャーがエクイレクタンギュラーでは成功してるのでどちらを取るかなのかなと思います。

twitter.com/tommyoshima/st

posted at 22:45:49

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

@lets_rock_it 距離というか…自論で恐縮ですが、結局1つのキャプチャーで処理しなければいけないトータルのキャパシティがあって広大なシーンになればなるほど細かいものが曖昧に処理されていくのかな、と思っている次第です。分かりませんが…例えば何度か試して失敗してるのは長い距離の商店街の360動画ですね。

posted at 22:40:55

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

@lets_rock_it 先ずはアプリの純正のFreeformやGuideモードでお試しください。原理を理解するのに役立ちます。むしろiPhoneでビデオを撮って綺麗に仕上がる成功体験を増やした方がヘビーな使い方のヒントになるかと!👍

posted at 22:11:27

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

@lets_rock_it どちらもInst 360RS1インチで360です。ただ処理の仕方が片方は.insv魚眼を二眼分アップしたもの、もう片方の内装を多く見せてる方はエクイレクタンギュラーからです。
Luma AIの技術者によると現状ではデュアルフィッシュアイからの方が仕上がりが綺麗だとの事

posted at 21:31:14

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

@lets_rock_it …してしまうのでかつてVRでもあったように「無駄な部分」「ゴーグルでほとんど見ない真後ろ」まで情報処理が奪われるという意味では適材適所かもしれませんね😆
ただどんな広大なキャプチャーでも無限に処理が可能なキャパが出来たらそんな事も言えないかもですがw

posted at 21:27:59

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

@lets_rock_it 意味はあると思います。ただしキャプチャーしたい対象によるかもしれません。基本的にカメラが向いている方向のものしかスキャン出来ないので撮りこぼしたらそこは虚無なんですよねw
360だと全方位なので撮影者の背後の情報まで無限遠で撮るという点で「要らない」情報までキャプチャーしようと…

posted at 21:24:25

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

@lets_rock_it これは同じシークエンスから使い所を変えていて、最初の方のは外の店の並びや商店街をしっかり見せてますが、二つ目のは店に入る手前からにして内装重視にしてみました。
内装のディテールの差が分かると思います。
もっと長いストロークをアップしたバージョンはお見せ出来ないぐらい酷いですw twitter.com/i/web/status/1 pic.twitter.com/8z846uXXeV

posted at 19:34:38

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

@lets_rock_it 長尺のシーンでも使い所の尺を短めにしてみるとかでいろいろ試してみるとだんだんクセが分かってきます!
通常撮影でも長いストロークのものは最終的に破綻しちゃうんですよね。逆に対象物をひとつに絞ってグルグル周りを周回して高さを変えて三周ぐらいするとその被写体の解像感がアップします!

posted at 19:25:39

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

@lets_rock_it されてしまうのであまりオーバースペックは意味ないようです。
テストするとしたら先ずは狭い範囲の対象から始めるといいかもです!
動画からだと結局ダウンサンプリングされてしまうので静止画連番にした方が少しでも画質がアップするとかいろいろコツはあります!

posted at 19:13:06

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

@lets_rock_it おおお!
お疲れ様です!w
LumaAIに限った事かもしれませんが、広域キャプチャーをするとキャプチャーのクオリティーが処理される全体で平均化されてしまってものすごく画質が粗い感じで仕上がったりするようです。
また6K 8K 12Kなど極端に大きなサイズはシステム上受け付けない(ダウンサンプリング)

posted at 18:57:32

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

来週の島根の案件用に仕込み作業始めてるけど2000枚以上ある画像を機械的にアレする宛名書きみたいな作業キツイわ😭
こういうの若い衆がいたら手分けしてやって欲しいけどオッさんばかりの弊社では老体に鞭打たなければならんのだ…
箸休めでチョコチョコNeRF設定に逃げつつ、打つべし打つべし💦

posted at 14:57:09

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

@makotofalcon なるほど!確かに情報密度が変わりますね。
自分でも今極端に狭いサンプルで検証してレンダリング中ですが、レンダリングする前から明らかに小物の解像感・ディテールが数段上がったように見えます。

posted at 14:44:41

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

Insta360 RS1inchの元素のDual Fisheyeからダイレクトにアップしたものと今回EquirectangularにしてからNeRF化したものを比較。この場合は明らかにDual Fisheyeの方が格段にクオリティが高い。こういった課題をすごい速度でクリアしていく @LumaLabsAI の開発力は素晴らしい。 twitter.com/tommyoshima/st pic.twitter.com/oGT6sPuovk

posted at 12:38:34

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

@LumaLabsAI のエクイレクタンギュラー対応で今までデュアルフィッシュアイだとどうしてもうまく行かなかったものが初めて成功した例
表裏のレンズ情報がおかしな事になってたけど今回シーンとして正常に成立した。
但し画質はデュアルフィッシュアイの方が高い。これがトレードオフという事か。 twitter.com/i/web/status/1 pic.twitter.com/Vnx6ZmGU9P

posted at 11:24:14

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

@LumaLabsAI There are a few Dual Fisheye content which never came up correctly but I just confirmed that it works fine with the Equirectangular version. Also…Not all the 360 users will keep the original footage once they render out the Equirectangular, so this is a huge progress anyway!

posted at 09:49:41

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

@kwea123 ありがとうございます!
今までデュアルフィッシュアイだとどうしてもうまくNeRF化出来なかったものがエクイレクタンギュラーでうまく行ったのが確認出来ました。いろいろトレードオフな部分も残っては居るかも知れませんが確実に進化してるのが分かって素晴らしいです。👍

posted at 09:46:19

3月30日

@tommyoshima

Tommy Oshima@tommyoshima

@LumaLabsAI のウェブUIにいつの間にかエクレクタンギュラー形式が追加になってる…数多ある360度カメラのユーザーにとってはこれは朗報。特にディスク容量確保のために元素材を消してエクレクタンギュラーだけ残してる人も多い筈なのでこれは大きい。ちゃんと見てないといつも急に進化してるのよw twitter.com/tommyoshima/st

posted at 08:44:47

このページの先頭へ

×