こんにちは、たねやつです。
VRAM 12GBの壁に阻まれ、軽量版ですら動作させることができなかった画像生成AI「Qwen-Image」。しかし、早くも画像生成AI界の雄、ComfyUIがこのモデルに対応したとの情報が!
しかも、VRAM 12GBのRTX 3060でも快適に動作する軽量モデルが用意されているとのこと。これは試さないわけにはいきません!
この記事では、ComfyUIでQwen-Imageを動かすための具体的な手順と、実際に試してみた結果をレポートします。
前の記事
この記事でできること
- ComfyUIでQwen-Imageを使うための環境構築手順がわかる
- VRAM 12GBのGPUでも動作する軽量モデルを知ることができる
必要なもの
- ComfyUI: 最新版にアップデートされていることが望ましいです。
- Qwen-Imageモデル: Hugging Faceからダウンロードします。
- Qwen-Image用ワークフロー: GitHubから入手します。
手順
セットアップは、ComfyUIへのファイル追加、モデルの配置、ワークフローの読み込みの3ステップで完了します。
1. ComfyUIへの対応ファイル追加(手動)
現在、Qwen-ImageのサポートはComfyUIのインストーラーや自動アップデートにはまだ完全には反映されていません。そのため、手動で必要なファイルを追加する必要があります。
- まず、機能追加が行われたGitHubのPull Requestページにアクセスします。
- ページ上部のタブから「Files changed」を選択します。
- 変更されたファイルの一覧が表示されるので、それぞれのファイルをダウンロードし、お使いのComfyUIの同じ階層のディレクトリに配置(上書き)してください。
2. モデルファイルのダウンロード
次に、ComfyUI用に変換されたモデルファイルをダウンロードします。以下のHugging Faceリポジトリから入手できます。
複数のモデルファイルがありますが、私がRTX 3060 (VRAM 12GB) で動作を確認したのは以下のファイルです。
qwen_image_fp8_e4m3fn.safetensors
ダウンロードしたモデルファイルは、ComfyUI/models/unet/ ディレクトリに配置してください。
3. ワークフローの読み込み
最後に、Qwen-Imageを動作させるためのワークフロー(JSONファイル)を読み込みます。
ワークフローは、先ほど紹介したPull Request #9179のページで公開されています。ページ内にある、狐のキャラクターが描かれたサンプル画像(ComfyUIのスクリーンショット)を、ComfyUIの画面に直接ドラッグ&ドロップ**してください。
すると、画像に埋め込まれたワークフローが自動的に展開されます。
4. 画像生成の実行!
あとは、読み込まれたワークフローの「Load Checkpoint」ノードで、先ほどダウンロードしたモデル(qwen_image_fp8_e4m3fn.safetensors)が選択されていることを確認し、プロンプトを入力して実行するだけです!
もしエラーが出る場合は、モデルファイルの配置場所が間違っている可能性があるので、ComfyUI/models/unet/ に正しく置かれているか確認してみてください。
実行結果:RTX 3060でも楽々動いた!
結果から言うと、VRAM 12GBのRTX 3060でも、本当に快適に動作しました!

先日、PyTorchスクリプトで実行しようとしてSIGKILLエラーで玉砕したのが嘘のようです。ComfyUIと、軽量化モデルを作成してくれたコミュニティの力に感謝しかありません。
生成された画像を見ると、やはり噂通りテキストの埋め込み精度が非常に高い印象です。このあたりは、また改めてじっくりと試してみたいと思います。
最後に
というわけで、今回はComfyUIを使ってQwen-Imageを比較的低スペックな環境で動かす方法をご紹介しました。
最新のAIモデルはVRAM要件が厳しく、試したくても試せない…という状況が増えてきましたが、ComfyUIのようなプラットフォームとコミュニティの力によって、そのハードルが大きく下がるのは本当に素晴らしいことだと思います。
皆さんもぜひ、Qwen-Imageの驚異的な性能を体験してみてください!