最近はスマホで3DスキャンができるということでWIDAR(https://widar.io/widar-3-0-now-available/)というアプリを早速自分の携帯に導入してみました。
このアプリは360度から撮影した物体を自動的に3Dモデリング化してくれるという優れものなので、自宅にあったメンダコのぬいぐるみを撮影して、3D化してみました。
撮影結果は、影の部分がグロくなって、なんだかゾンビメンダコみたいになってしまい『非常に微妙』な状態になりました。初めての撮影ということもあって、手慣れればもっと精度の良いものが作成できるのかもしれません。
また、このアプリの優れているところは、なんと3DモデルをFBXファイルなどで書き出して、PCに送ることができるのです。
Blenderで読み込み
早速FBX化したデータをBlenderで読み込んでみましたが、色々な問題点が出てきてしまいました。
出てきた問題点
- スケールが小さい
- メッシュがやけに細かい
- テクスチャデータが見当たらない
まず、スケールが小さく、0.004mというものでした。確かにぬいぐるみなので小さくてかまいませんが4cm四方というほど小さいものではなかったような気がします。普段あまり小さなスケールのものを作成していないので、オブジェクトを出してあわせるのが面倒でした。
そして、次にメッシュがとても細かいので、データ容量も重くなりウェイトペイントなども面倒な状態になりそうでした。そして左右対称じゃないので扱いづらい・・・という状態でした。
最後にPCで取り込んだFBXデータを探してもテクスチャが見当たらず、色が付けられませんでした。あとからマテリアル設定してテクスチャペイントしても良かったのですが、せっかくならデータとして欲しかったところです。
結局は出てきたデータをリトポロジーして、再度メッシュ化した方が良いような状態です。原型としてあくまで使用できるという感じなので、ガンプラなんかのデータを3D化けするには良いかもしれないと感じました。
結局自分で3D化
静物を簡単に3Dモデリングできたら楽だな・・・と思って使ってみましたが、撮影の仕方を覚えないと難しそうです。またメッシュが細かいのでデータ容量的に重くなりそうでした。使うなら素体として読み込んでリトポロジーが必要だと思います。
結局読み込んだぬいぐるみですが、自分でメンダコを作った方が早かった状態でした。アプリの導入、撮影、そしてモデリングタイムと、私のメンダコを作る時間は、ほぼ一緒だった気がします。しかし、メンダコの形状を読み込むには良かったので、素体のガイドとしては役立ちました。
そして、飼い猫をモデリングしようと撮影したのですが、カメラ撮影の際に全方位カメラ目線になる猫は、顔が読み込めず顔ナシ状態でモデリングされグロ画像になりました。被写体が動かなければ3D化できそうですが、被写体が動くものは、モデリングするのは難しそうです。
リトポロジーが面倒でなければ、使えるアプリですし、Blenderの新たな可能性が増えると感じました。スマホやPCを合わせて使えば3Dスキャナーも不要な状態になりそうで、ちょっとテンションが上がりました。