nokの雑記

技術的な内容にしようと思ったけど無理でした。

庵野秀明展を見てきました(名古屋)

GW後半戦の初日、愛知県の金山駅前、旧ボストン美術館(金山南ビル美術館棟)で開催されている庵野秀明展(名古屋)に行ってきました。

展示は動画撮影禁止で、明確に禁止されているもの以外は写真撮影OKになっています。

入り口には庵野さん自らのサインが。

金山南ビル美術館棟の2フロアを使った展示となっていて、庵野さんが携わった作品だけでなく、影響を受けた作品の展示もあります。

たぶん本物のウルトラマンスーツ

影響を受けたかは定かではないけど、ガンダムも。

入り口寄りにあるこれらの展示を抜けるといよいよ庵野ワールドを味わえる空間になります。 中学生時代の絵や、高校生時代の撮影映像などが紹介されており、大学生時代の制作物もありました。

驚いたのが、企画の用紙や原画の紙、コンテなどの落書きやコメント(?)でした。 どうなるかなァとか、xxにしてみたとか、色々書いてあって、あーだこーだ言いながら作っているのが見えるようでした。

ナウシカのゾーンにあった魔よけのおふだ

また、原画類を見て圧倒されたのは、その緻密さでした。

爆風や破片などの本当に細かいこと細かいこと。また、メカものではディティールが恐ろしいくらいに書いてあります。

じょうぶなタイヤ!より

制作物は、ダイコンフィルムダイコンフィルムウルトラマンなどを経て、トップをねらえ!王立宇宙軍、ナディアなどの展示へ移っていきます。 当時の雑誌の紙面や、ポスター、AR台本などあり、原画を見るだけではない楽しさもありました。

さて、フロアが変わるといよいよ庵野のある種のメインコンテンツというか、エヴァにお出迎えされます。 原画展とか行ったことなかったので設定稿とか絵コンテとかを食い入るように見ました。

ネルフロゴと初号機がお出迎え

ラミたん

Air/まごころを、君にの部分が過ぎるとセーラームーンが一瞬挟まって、2000年前後の実写作品の紹介があり、ヱヴァンゲリヲン新劇場版を前に2010年前後の実写作品である巨神兵シンゴジラの展示があります。 巨神兵の撮影用模型(のレプリカだっけ)や、ゴジラの各形態の展示があり、やはりその情報量に圧倒されていました。

ゴジラ

そしてそこを抜けると、ゼロ年代から長い時間をかけて完結したエヴァの新劇場版ゾーンが。ど真ん中にはシンエヴァンゲリオンの制作時に作成された第3村レイアウト模型が。

完全デジタル製作の新劇場版シリーズにあって、(特にシンでは撮影に様々な技法が導入されていたのは知っていますが)こんなガッツリ模型作るんだ~!と思いましたね。

第3村模型

そして、おそらく新しい視点を探るために刷ったと思われる紙束が。

紙束

その後は仮面ライダー部屋があって、おしまいという感じでした(シン・仮面ライダーは見てなくて、あんまわかんなかったです)


さて、2時間くらいで見たわけですが、正直エヴァくらいしか履修していなかったので、いろいろ「へ~そうなんだ~(流し見)」って部分もありました。 ただ、ある作品が世に出るまでに投入される熱量や、画を作るために使われる時間や労力というものが原画類や小物類からひしひしと伝わってきて、自分もなんか作ってみたい!(軽い気持ち)という気分になる展示群でした。

最後の展示

↓撮影した写真を使ってGaussian Splattingによる新規視点生成を行ったもの

名古屋限定お土産のゴジラ第2形態キーホルダー(しゃちほこ風)めっちゃ良かったので買いました。

名古屋限定お土産

あと、近場のアスナル金山にも展示があります。

エヴァ初号機灯籠

(フィギュアの)現代3Dスキャン技術はどうなっているのか?

興味です。

2024年4月より、Epic社が提供するハイエンド写真測量ソフトであるReality Captureのライセンスが変更され、事実上無償化されました。(※売り上げがたくさんあると有償です)

Reality Captureはこちら: https://www.capturingreality.com/

また、近年はSfM (Structure from Motion)やMVS (Multi-View Stereo)とは異なる三次元シーンの復元技術がかなりの高品質を叩きだしています。

さらに、ProシリーズのiPhone/iPadに搭載されたLiDARを利用した3Dスキャンアプリが出ていることもあり、手軽に3Dスキャンを行えるようになりつつあります。

このエントリでは、比較的小型の立体物(要はフィギュアやプラモデル・ジオラマ)を題に、各技術がどんな感じでスキャンを行えるのかを見ていこうと思います。 (このエントリの背景には、ワンフェスでの3Dスキャン禁止あたりの要素もあります。どれくらいのクオリティで行えてしまうのか、またどうしたら防げるか、逆に出展側が何かに利用できないかを検討できないか、ということです)


各手法の概要

※以下の説明は間違っている可能性があります。

雑に画像にまとめてみました。下の長い説明は興味があったら読んでください。

デジタル万引き的な視点から覚えてほしいのは、SfM, MVSとLiDARスキャンでは3Dモデルが作られてしまい、NeRF, GSでは(まだ)難しいという点です。

3Dスキャン技術まとめ

SfM, MVS

古典的?な手法で、あるシーンを撮影した画像群から、画像同士(撮影視点)の位置関係を計算して、シーンの形状を復元する技術です。

まず、画像上の特徴点(コントラストの強い場所やエッジなど)を抽出し、各画像のマッチングを行います。 その後、特徴点同士がどう分布するかをもとに撮影時のカメラ位置を計算します。 最終的に、特徴点の空間的な(疎な)分布を求め(Structure from Motion; SfM)、それらを元に密な点を生成し(Multi-view Stereo; MVS)、メッシュを張るとBlenderなどで利用可能な3Dモデルを取得できます。

冒頭で紹介したReality Captureはこの原理を使うソフトウェアです。有償・無償・商用・研究用を問わず様々なソフトウェアが開発されています。また、この技術は写真測量やフォトグラメトリとも呼ばれ、様々な分野で利用されています。

画像同士の対応を計算するため、手ブレに弱い、一部が動いている物体に弱い、特徴のないのっぺりした物体やガラス・鏡に弱い、他の物体に隠れて見えない部分は復元できないなどの苦手はありますが、良く研究されており、厳密に調整されたカメラではかなりの精度をたたき出します。

FFXVの料理モデルに利用されていたりhttps://jp.ign.com/cedec-2018/28299/news/ffxvcg、広域を撮影したものがVR空間として公開されていたりhttps://note.com/thedesignium/n/n4b6a9d2d5c01します。

NeRF, GS

NeRF (Neural Radiance Field)は2020年に提案された手法で、GS (Gaussian Splatting)は2023年に提案された手法であり、両者は新しい技術です。あるシーンを撮影した画像群とカメラ姿勢を入力に、各視点からのシーンの見え方を機械学習技術で学習し、もともとのカメラ視点とは異なる視点の画像を生成できます。

まず、シーンの画像をもとに、SfMなどでカメラの姿勢を計算します。それを入力として、NeRFの場合は空間上の各点における色・透明度をニューラルネットワークに学習させます。GSの場合は空間中にGaussian (ラグビーボールみたいなもの)を散らし、その大きさ・色・透明度を機械学習技術で最適化します。シーンの空間的な表現を学習するため、最終的に、未知の視点からシーンがどう見えるかを画像でレンダリングできます。

機械学習技術を利用して未知視点を合成する(Novel-view Synthesis; NVS)ため、対象の3Dモデルは直接的には得られません(3Dモデルの形で取り出すのは不可能ではありませんが面倒です)。しかし、見え方そのものを学習しているため、ガラスや鏡にも比較的強く、写実的なレンダリングになります。盛んに研究されている最新技術であるため、日進月歩で新手法が発表されています。

最新技術であるので商用ソフトはまだ多くありませんが、Gaussian SplattingによるNVSWindows向けではPostShotというアプリがβ版で提供されていたり、スマートフォン向けの3Dスキャンアプリに実装されていたりします。

映像製作で使われるようになりつつあります。https://cgworld.jp/article/nerfarata-fukoe.html

LiDARスキャン

専用のセンサを使って、対象の三次元的な形状を直接取得してしまう手法です。使うセンサはLiDAR (Light Detection And Ranging)に限りませんが、便宜上LiDARと書きました。iPhone ProシリーズにLiDARが搭載され、アプリからその情報を利用できるようになったため、一気に身近になりました。

専用のセンサは、電磁波(光)を用いてセンサ位置からの奥行き(距離)を取得できる点が特徴的です。センサの姿勢変化と取得した奥行きをマッピングすることで、対象の三次元的な形状を取得できます。色情報については、調整が施されたカメラをセットにして扱うことで取得可能です。

得られるモデルの出来は、使うセンサの精度や使い手の技量に左右されやすいです。光を用いて距離を取得することから、ガラスや鏡は苦手です。また、SfMやNeRFなどと異なり、専用センサという点もネックです(が、iPhoneが使えてしまいます)。iPhone Proシリーズでスキャンを行う場合はなんといっても手軽であるため、デジタル万引き的には注意が必要です(iPhoneで写真を撮っているか、LiDARでスキャンをしているかは判別しづらいです)。なお、iPhoneのLiDARは専用のスキャナと比較すると性能がかなり低いため、細かい物体のスキャンは苦手です。

iPhone向けには多数のアプリが出ており、Twitterでひたすらそれらを宣伝している人もいます。


実際にやってみよう

ターゲットとデータ取得

フィギュア類は一切買わないと自分に制約を課していた筆者が唯一買ってしまったフィギュアこと、芹沢 あさひ 空と青とアイツVer.をターゲットにします。公式から持ってきた画像↓

芹沢 あさひ 空と青とアイツVer.公式画像

画像としては、一眼レフカメラで(おもに正面方向から)撮影した100枚を使います。(もちろんiPhoneでも可です) 撮影では、F値を大きくする(パンフォーカス)、撮影ごとにカメラ位置をずらす(同じ場所からパン振りしてはダメ)、画像のオーバーラップを大きくすることが必要です。また、360度から撮影する必要があります。

LiDARスキャンでは、iPhone13ProでScaniverseというアプリを使います。

こんな感じで100枚撮影しました。

SfM, MVS

冒頭でも書いた、Reality Captureを使いました。(Windows向けでイージーに試すなら、MeshroomやCOLMAPなども利用可能です。Reality Captureも含め、いずれもnVIDIA GPUが搭載されている必要があります。)

使い方としては、画像をメイン画面にD&Dして、Alignment → Mesh model → Textureでモデルが完成します。 処理を行うコンピュータの性能によりますが、この規模だと数時間もかからないでできます。 下のスクショを見ると、主に正面から撮影したのがわかるカメラ姿勢となっていますね。

Reality Captureでの復元

操作しているときの動画をTwitterに置いておきました。

.obj形式で出力して、Blenderに持ってきてみました。 周囲を一周するように出力した例です。

一目見て分かると思いますが、本来のフィギュアには存在しないモコモコができています。 SfM/MVSで十分に復元できなかった部分にメッシュを張ったためにできたと思われるモコモコです。 また、単色でテクスチャに乏しい帽子の庇・信号機の日よけは穴が開いてしまっています。

NeRF, GS

同じ画像群を、PostShotをいうアプリで処理して出力しました。アプリ設定は、長辺2000px、特徴点9.6k、学習90kです。 plyファイルをexportし、プラグイン経由でBlenderに読み込んだものがこちらになります。(レンダリングの都合で、これだけエンジンがCyclesです)

偽色が出ている(これもレンダリングの都合です)ものの、形状や色が非常に正確で、綺麗にフィギュアを再現できていることがわかります。 また、後ろからの見た目も(後ろからの写真がほとんどないわりには)比較的綺麗に出力できています。

生成を行ったソフトのPostShotの機能で作成した動画がこちらになります。(こっちのほうが品質が数段高いです)

LiDAR

ScaniverseのMeshスキャン、Small Objectモードを使いました。メッシュ化処理はDetailで行っています。 スキャンでは、全方位からまんべんなく撮影を行っています。 Blenderに突っ込んで出力したものがこちらです。

直接モデリングが行われているだけあって台座部分も含めて大きな破綻はないモデルとなっています。 しかし、全体的に細部のディティールを欠いています。

さいごに

さて、肌感としては、どの方式でも(とくにテクスチャをつけたまま見る分においては)かなり綺麗にスキャンを行えているように見えますね。 デジタル万引き的な視点で言えば、展示会のその場で十分な品質で全方位からのデータ収集をさせないように対策するのが大事だと思われます。 3Dプリンティングも可能だと思われる(ソリッドモデルにできれば)ので、品質の是非は別として海賊版を作られてしまう可能性があります。

逆に、プロモーション的に利用できればおもしろいかもしれません。 Gaussian Splattingでは驚くほどの写実的なレンダリングが可能なので、プラモデルやジオラマをスキャンしてカメラワークをつけて動画出力すれば、作者直々にディティールまでふくめて、現実では難しいカメラワークで魅せることができるかもしれません。

別世界へようこそ! - SIGMA 105mm F2.8 DG DN MACRO | Art

この人またレンズ生やしてる……

マクロレンズは初めてです

タイトルの通りですが、SIMGAのミラーレス専用マクロレンズを買いました。主に花を撮影しようと思っています。

カミソリマクロの再現を目指した70mmはミラーレス専用設計ではないということで105mmのこちらを選びました。焦点距離で近いという意味でフォクトレンダーのMACRO APO-LANTHAR 110mm F2.5と迷いましたが、虫を狙うようなときにAFがあった方が嬉しいかなということで。

あ、手持ちとしては初めてのArtラインでもありますね。ずっしりした筐体で、性能全振り感があります。なおそんなに質感は好きじゃないです。

いくらか使ってきたので、以下はフォトギャラリーです。

家のカーテン (f/2.8)

チェーンを張る用のポール (f/2.8)

菜の花 (f/5.6)

菜の花 (f/2.8)

河津桜のつぼみ (f/2.8)

タンポポ (f/5.6)

梅 (f/2.8)

使用感ですが、ジャスピンの面でのキレはほんとうに見事だと思います。開放だと本当にうす~い面でしかないので、自分の身体のブレでピンボケになってしまいます。あとは、その薄いピント面で花のどこにピントを持っていくか、というのも難しいなと思います。
これまで持っていない(70-200のズーム域としてはあるけど)105mmの視界、等倍まで寄れるマクロということで、これまでとはまた別の世界が見えている感があり、楽しいです。↓みたいなのはマクロでだけ見える世界ですね。

胚芽米? (f/4)

自作キーボードNoraneko42GRを組んだ(ビルドログ)

ツイ…Xのフォロワーが良い感じにぐんにゃりしたキーボードを作っていたので、何のキットかを聞いて自分も組むことにしました。

その名はNoraneko42GR。堕落猫(Daraku-Neko)さんが公開しているキーボードです。

booth.pm

本人によるキット販売が上記で行われているのですが、12/22時点では品切れになっているようです。

完全に組むのに買ったのは以下の部品たち。

たぶん多くの人が悩むであろうキースイッチは、LED実装をやる予定があったのでクリア系のケースであることを優先しました。 というか明確なこだわり要件がそれくらいしかなかったです。

結局えいやっと(?) Gateron Baby kangaroo 2.0, Durock T1 Shrimp, Durock Daybreak, Durock Dolphin, Yushakobo Fairyがなんとなく良さそうだな、というところまで絞りました。 そこからどういう経緯でDurock Dolphinに絞ったのか記憶がないですが、手元のZINCについてるAliaz Silent (透明ケース・ピンクい軸・Silent Tactile)と対照的な感じなので選んだのだと思います。

キーキャップは……とりあえずで買いました。いいの見つけたら交換すると思います。


ここからはビルド時の写真を貼る……はずなのですが、ハンダ付けに夢中であんまり写真がありません。 組み立ては、ビルドガイドに従いました。

ガイドはこちら→ https://github.com/darakuneko/Noraneko/blob/main/noraneko42gr/v1.1/README.md

最初に、RP2040-Zeroにファームウェアを入れました。手順通りで問題なかったです。

次にやったのはスルーホールの抵抗(x2)の取付です。ビルドガイドの写真と実際の基板での位置が少し違いましたが問題なかったです。

3番目はバックライトLEDの実装です。めっちゃ疲れました。壊したくないのでコテは250度(設定できた下限)にして、4つあるパッドのうち1箇所を付けるのを5個くらい順に行い、次は2パッドめ、3パッドめ、4パッドめを終えたら動作確認という感じで進めました。1つ1つのLEDに熱が入る時間が短時間+休み+短時間...となるようにという配慮です。この途中で動作確認のためにRP2040-Zeroのコンスルー取付けも行いました。

よく見るとLED39のパッドが一部ハンダ付けされていないのがわかるかと思います。

コンスルーをつけたRP2040-Zero。

結局LEDをひとつも壊すこと無く無事に全部ハンダ付けできました。自分の腕前が恐ろしい。ハンダが少なめで汚かった(パッドがデカくて熱が回りにくいんですよね)ので、動作確認後に全てのパッドにフラックスを塗って綺麗になるように盛り直しました。

上手に出来ました。

4番目はKailhのスイッチソケットですね。とくに言うことはないです。コテの温度はたぶん280度くらいでやりました。LED以上にパッドがデカい(というかソケットの足がデカい)のでこっちはこっちで大変でした。

ソケットも付けます。(LEDの足が綺麗になってます)

ハンダ付け終了時。

ここまででハンダ付けが全て終わり、あとはケースを組み立ててスイッチを植えるのみになりました。

裏側でこそこそ組み立てたスタビを取り付けます。バラッバラで届いたので画像検索して構造を調べて組みました。

あとでめっちゃカチャカチャ鳴ることになるスタビ。

ケースはメイン基板の下側2枚、上側2枚となっており、ボトム1, ボトム2, メイン基板の3枚を重ねてのネジ留めが必要です。

上2枚・基板・下2枚。

順番としては、ネジ、ワッシャー、ボトム(透明)、ボトム(穴空き)、スペーサー(こいつがボトム2枚の穴に収まる)、基板、ネジになります。 ネジが若干短いので、片側でスペーサーとネジを締めきってしまうと反対側で届かなくなります。遊びをもたせておいて、良い感じにしましょう。(追記: イメージを起こしてみました↓)

なんか……こんな感じ。

メイン基板までが終わったら上側2枚を基板の上に載せて、スイッチを植えていきます。 スイッチがトップ側のアクリル板の固定を兼ねます。

4つ角(端のほう)を植えてからだと楽な気がする。

で、スイッチを植えたら最後にキーキャップをかぶせて完成です。(キー探すのめっちゃめんどかったし2.75uのキーはセットに入ってなかった……)

完成。ふつくしい……

Macと並べて。


で、物理的には完成したのですが、今度はキーマップ編集の果てしない旅が始まりそうです。 とりあえず、手持ちのZINCに寄せる方向で組みたいと思います。 (Vial難しい……)

試し打ちした感触は、いわゆるコトコト系ですかね?軸がぶれずにすっと沈む感覚で、リニアなのでスムーズさが強調されて、しかも静かなので集中力を上げてくれるようなキーボードに仕上がりました。 そんな中であまり気に入っていないのがスタビ。遊びが大きくカチャついた音が鳴るため、静けさをぶち壊します。 親指キーだけに押下する回数も多く(LTで複数役目あるし)、他のキーがスコッと入るのにコイツだけチャキッみたいな感触なのでなんとかしたいです。

またゆっくり使っていきます。


このブログエントリは、Razer BlackWidow V3 Tenkeyless (Yellow軸)で書きました(Neraneko42GRでもなければ自作キーボードでもない、めっちゃ市販品でスミマセン。でも結構気に入ってるキーボードです)。 また、写真は全てSONY α7R IV + SONY FE 70-200mm F4 Macro G OSS IIで撮影しました。

SIGMA 70-200mm F2.8 DG DN OS | Sportsで動物園試し撮り

えー待ちに待ったレンズが発売されました。SIGMAのミラーレス専用大三元最後の1ピース、70-200mm。

SIGMAだと広角と標準はArtとContemporaryがあるのですが、自分はContemporaryを持っています。 そして手持ち初の望遠レンズです。これまで動物園や水族館で望遠側が足りなくてクッ…と思うこともあったので、それが埋まります。

(これはfp Lで撮影しました)

とりあえずα7 IVにつけて愛知県…名古屋市の東山動物園へ行ってきました。 以下、RAWファイルにLrCでカメラVV(クリエイティブルック)のみ適用して、横4Kで出力した画像です。

カワウソ。190mm, ISO400, SS1/1000, f/2.8

ゾウ。200mm, ISO100, SS1/1250, f/2.8

カンガルー。200mm, ISO100, SS1/400, f/2.8

トラ。若干アミが残ってます。200mm, ISO500, SS1/400, f/4

ライオン。192mm, ISO500, SS1/400, f/2.8 (この画像のみ編集で窓ガラスに写りこんだ人を暗くしています)

この写真に写っているオスのライオン「サン」は2024年1月3日に老衰で亡くなったとのことです。ご冥福をお祈りします。

新造舎でのレッサーパンダ。200mm, ISO500, SS1/400, f/2.8

シロクマ。200mm, ISO250, SS1/400, f/2.8

アシカ。166mm, ISO1250, SS1/400, f/2.8

ワライカセミ。145mm, ISO2500, SS1/320, f/2.8

ハクトウワシ。200mm, ISO3200, SS1/125, f/2.8

で、使ってみた感想ですが、今まで軽量なContemporaryの広角と標準ばかり触ってきた身には重いです。 めっちゃ。1.3kgなのでカメラと合わせて2kgで、ずっしりきます。 バランス自体は悪くなく、両手で無理なく支えているときはいいです。 少しでもエクストリームな姿勢になるとキツいです。

写りはまったく文句無く、日向というかある程度の明るさがある環境ではすごくキレの良い描写だと思いました。 上の写真は全然深く考えずにほぼ開放で撮ってましたが、合焦点からズレたところが良い具合にとろけてくれて良かったです。(周波数の高い背景がボケると若干ウルサいきらいがあるかも) また大口径なので、シャッタースピードを確保しやすいのも良いですね。逆に明るいところではF2.8だと薄すぎるので少し絞っていいのかも。 手ぶれ補正も中々優秀だと思いました。 オフと比べるとオンの場合は本当にビッと止まります。何段分か知らないけど。 止まり方もAFが合焦するまではぷるぷるしてて、合焦した瞬間にビタッとなるのでおもしろいです。

フォーカスも高速でスッと合焦してくれます。 ただ、カメラとの相性なのか、微ズレが結構出たので連写で対応してました。 また、被写体がオリに近いときはオリをヌききれないこともあり(上記の写真のトラとカワセミ)、フォーカスリミッタを使ってもオリにピントを取られることがあります。

手触りというか操作の面では、先端のズームリングの幅が狭めで、かつフードの後端がカブってしまうため、若干の回しにくさというか咄嗟に手を置きにくいなと感じます。 実際のところレンズが重いため、支えもかねてズームリングに手を置きっぱなしにするということが多いので、咄嗟の状況以外ではそれほど問題にならないかな、とも思います。 また、ズームリングが凝った形状、というかリングの前端と後端で径が違うのは触ってみると大変良くて、径の変わるナナメの部分に指が見事にかかります。

これからも随時使って評価したいと思いますが、良い写り・そこそこお手頃(GMIIから10万安い)・結構重いってのが現時点での総合評価です。


ところで、望遠だと色々ある気がしますが、競合(というかコレ買うかアレ買うかと悩んだの)はこんな感じです:

  • SONY 70-200mm F2.8 GMII: 純正。さーすがに高い
  • SONY 70-200mm F4 Macro GII: 純正その2。暗くてズーム伸縮あるけど軽くて同じくらいの値段。めっちゃ悩んだ。
  • TAMRON 70-180mm F2.8 G2: 安い。寄れる。頭の端はあったけど……くらいの感覚。
  • TAMRON 50-400mm F4.5-6.3: 高倍率。めっちゃ悩んだ。そのうち買っちゃうかも。

どうしても出番が限られる+テレ方向では果てが無い望遠レンズなので、悩みは尽きないですね。 GMIIは価格で完全に手が出ないなー(そもそも広角と標準すらGMIIじゃない)、F値は犠牲にしてカバー範囲広い50-400で便利に行くかなー、純正F4Macroめっちゃ悩むなー、など色々考えましたが、やっぱSIGMAで揃えて大三元にしたい欲があり、こうなったわけです。