皆の衆、AIライフを楽しんでいるかな?画像生成の次は音楽生成、これが時代の潮流(トレンド)ですぞ!
今回は、話題の音楽生成AI「HeartMuLa」を、拙者お気に入りのNodeベースGUI「ComfyUI」で試してみたので、その構築ログを共有させていただきますぞ。デュフフ、自分専用の神曲を錬成する準備はいいかな?
### ステップ1:ComfyUIの準備とCustom Nodeの召喚
まずはベースとなるComfyUIを用意。拙者は環境を汚したくないので、Portable版をチョイス。適当なディレクトリに解凍するだけで準備完了だ。
次に、HeartMuLaをComfyUIで扱うための「Custom Node」を公式からクローンしてきますぞ。ここはコマンドラインでサクッとね!
cd ComfyUI_windows_portable\ComfyUI\custom_nodes
git clone https://github.com/benjiyaya/HeartMuLa_ComfyUI
そして依存モジュールのインストール。Portable版のPythonを直接叩くのがコツですな。
cd HeartMuLa_ComfyUI
"..\..\python_embeded\python.exe" -m pip install -r requirements.txt
### ステップ2:モデルデータの配置(ここが重要!)
お次はHuggingFaceからモデルを拝借してきますぞ。ディレクトリ構成が少々特殊なので、全拙者は注意されたし!
ComfyUI/models/HeartMuLa ディレクトリを作成し、以下のような階層になるようファイルを配置。ここを間違えるとAIたんが目覚めてくれないのだ……。
/ComfyUI/models/HeartMuLa │ gen_config.json, tokenizer.json 等...(HeartMuLa/HeartMuLaGenのファイル) │ ├─HeartCodec-oss-20260123 ├─HeartMuLa-RL-oss-3B-20260123 └─HeartTranscriptor-oss
### ステップ3:エラー発生!「RoPE cache」とは何奴!?
準備万端!意気揚々と run_nvidia_gpu.bat を叩き、ワークフローから「HeartMuLa_ComfyUI」を選択して実行!……したが、無慈悲なエラーメッセージが拙者を襲うッ!
RoPE cache is not built. Please call rope_init() first.
「なんのこっちゃわからん!」……そんな時は、迷わずGitHubのIssuesへダイブ!やはり先人がいましたぞ。どうやら transformers のバージョン が原因のようだ。
確認したところ、拙者の環境には v5 が入っていたのだが、これが相性最悪。v4系にダウングレードする必要があるんですな。
### 解決:モジュールのバージョンダウンで完全勝利!
ComfyUI\requirements.txt を開き、transformersの指定を書き換えてやるのですぞ!
transformers>=4.50.3 ↓ transformers>=4.50.3,<5.0.0
そして再度インストールを実行!
"..\..\python_embeded\python.exe" -m pip install -r ./requirements.txt
### 動作確認:無事動作!!
再度起動……。今度はエラーを吐くことなく、無事にHeartMuLaが駆動しましたぞ!キタアアアアア!!
エラーにぶつかっても、Issuesを読み解きバージョン管理でねじ伏せる。これこそが自作PCユーザー、延いてはAIジャンキーの醍醐味というものですな。さあ、これから最高のBGMを量産してくるとしよう!さらばだ!デュフフwww
0 件のコメント:
コメントを投稿