覚えていますか、Blenderを習得するのに何ヶ月もかかる偉業だと思われていた時代を?今やそれは過去の話です。過去数年で、ニューラルネットは3Dグラフィックスに深く浸透し、参入障壁はほぼ崩壊しました。今や誰でもブラウザ上で写真から3Dモデルを数分で生成できる時代です。私は技術の進歩を確かめるため、いくつかの人気サービスを試してみました。実験テーマはクラシックな子供向けアニメのキャラクターです。これは、アルゴリズムがどれだけ認識可能なイメージを処理し、長年記憶している細部を伝えられるかを見るのに最適な方法です。



選定基準はシンプルでした:正直に無料で、カード情報や隠れたサブスクリプションなしでアクセスできること。見つけたのは以下の通りです。

TriPo AI - 最初に試したサービスです。ブラウザ上で動作するクラウドプラットフォームで、既存の画像をアップロードするか、キャラクターをテキストで説明するだけでOKです。最大の特徴は、ロシア語を理解する優れたシステムで、翻訳に苦労しません。登録後、300コインが付与され、1回の生成には25コイン必要なので、約12回試せます。バージョン2.5では、さらに5つの完成モデルが無料で提供されます。

スクルッジ・マクダックの写真をアップロードしたところ、ニューラルネットは1分半で処理完了。結果は悪くなく、キャラクターは瞬時に認識でき、塗装も良好です。ただし、眼鏡が少しずれていたり、目がなぜかクチバシに重複していたりします。でも、素早い実験には十分なレベルです。設定では生成スタイルを選択したり、ネガティブプロンプトを入力したり、ポーズを指定したりも可能です。さらに、20コインでキャラクターにアニメーション(走る、ジャンプするなど)を追加して動きをつけることもできます。

Meshはより面白いです。画像やテキストから即座に4つのバリエーションを出力します。登録後に100コインが付与され、10モデル分に相当します。生成には数分かかります。最大の特徴はTexture Generator機能で、追加の10コインを支払うと、グレーベースのラフにテクスチャを貼り付けてくれます。内部では巨大なオブジェクトライブラリで学習した拡散モデルを使用しています。結果はGLBやOBJ形式でダウンロードでき、BlenderやMayaで開くことが可能です。

Donald Duckの写真から3Dモデルを生成したときの結果は中間的でした。キャラクターは認識できるものの、4Kでじっくり見たい作品ではありません。テクスチャには問題があり、白いハゲ部分や、神経が行き届かなかった箇所が見えます。手は他の部分より太く見えたり、指の数が多かったり少なかったりします。ポーズも少し傾いていて、動きも感じられません。ラフスケッチには十分ですが、最終的なプロジェクトには手作業の修正が必要です。

TrellisはMicrosoftの開発で、Hugging Faceで無料提供されています。画像のみ対応で、テキストリクエストには対応しませんが、多彩な設定が可能です:シード値、オリジナルへの忠実度、ステップ数など。最大の特徴はMultiple Imagesモードです。キャラクターの複数の角度の画像をアップロードすると、ニューラルネットが形状をより正確に理解します。古いアニメの平面イラストには特に有効です。

Luma Labsの Genieは速度重視です。テキストでオブジェクトを説明すると、2分で立体化します。出力はすぐに4つのバリエーションで、ブラウザ上で回転させることも可能です。生成回数に制限はなく、何度でも試せます。ただし、注意点はテキストリクエストのみで、画像のアップロードはできません。無生物には良好に対応しますが、顔や細かいディテールはしばしばぼやけてしまいます。エクスポートは便利で、次の作業場所に応じて適切なフォーマットを自動選択します。

Ariaをテキストで作成しようとしたときの結果はあまり良くありませんでした。テクスチャは歪み、細部はぼやけ、ジオメトリも散らばっています。キャラクターは認識できるものの、長所はそこまでです。複雑な有機キャラクターには向いていません。

Hightemは高詳細モデル向けと位置付けられ、テクスチャの質やポリゴンのクリーンさに重点を置いています。テキストと画像の両方に対応し、インターフェースはシンプルです。生成には数分かかり、標準フォーマット(GLB、OBJ)でエクスポート可能です。単なる素体ではなく、見栄えの良いモデルが必要なときに適しています。

クラシックなアニメキャラクターの写真をアップロードしたときの結果は、今回のレビューの中でも最高の一つでした。非常に原作に似ており、モデルも悪くありません。ただし、色味は調整が必要です。原作はより鮮やかです。

Masterpiece Xはテキストによる説明に重点を置いています。画像機能はあまり強くありません。登録時に250クレジットが付与され、5回分の試行が可能です。ブラウザ内で形状を修正できる Sculptエディターも内蔵しています。色が気に入らなければPaintモードに切り替え、手動で塗るか、自動テクスチャ改善を実行します。モデルは他のエディターに移行できるようUV展開やマテリアルの貼り付けも行います。

ジンを作成しようとしたときの結果は中程度でした。詳細は普通で、テクスチャも粗い下書きのようです。ニューラルネットは指示にあまり従わず、クラシックなジンではなく、ウィル・スミスに似たキャラクターになってしまいました。魔法のランプの代わりに鍋を持っているなど、塗装も満足できません。

これらすべてのテストを経て、現時点ではプロの3Dデザイナーは安心して眠れるとわかりました。ニューラルネットは、すぐに仕事を奪えるほど成熟していません。ワンクリックで本格的なものを得るのは、目隠しで名作を描こうとするようなものです。何度も試行錯誤し、画像を変え、リクエストを書き直す必要があります。そして、無料の試行は、アルゴリズムの仕組みを理解し始めた瞬間に終わることが多いのです。

真実は、ニューラルネットは人間が操作してこそ真価を発揮するということです。創造的な視点やアイデア、モデルをエディターで仕上げるスキルがなければ、単なるツールの集まりに過ぎません。標準的なモデルを出力できても、キャラクターに命を吹き込み、オリジナリティを持たせるのはあなただけです。技術は、ルーチン作業を効率化する助手にすぎません。

すでに写真から3Dモデルを生成するニューラルネットを試したことがあるなら、その結果を共有してください。もしかしたら、私が見逃したお気に入りのサービスや、これらのアルゴリズムを完璧に動かす方法を見つけた方もいるかもしれません。皆さんの経験談を知りたいです。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン