アキバやネットで売られている「ジャンク品」は、たいてい古い。とても古かったり、少し壊れていたり、そもそも動くかどうかすら怪しい。 仮に直ったとしても、今の時代にわざわざお金を出して欲しい人がどれだけいるのか分からない。動かせたとしても、「古い」「遅い」「誰も欲しがらないかもしれない」という現実は変わらない。一方で、新品や現行品が「ちょっと動かない」という場合、それは単なる故障品になる。直れば普通に価値が戻り、誰かに売却できる。そこでは市場価値も用途も失われていない。この二つは似ているようで、実は全く違う。
後者は「単なる修理作業」だ。壊れたものを、本来あるべき状態に戻す。もちろん知識も技術も必要だが、目的地は最初から決まっている。
しかし前者のジャンク品は違う。それは「挑戦」だ。
しかも、手のかかる個体ほど不思議と愛着が湧く。ようやく動いた瞬間が猛烈に嬉しい。
できの悪い子ほど可愛い、という言葉があるが、ジャンクにもそれに近いものを感じる。
素直に動かない。予想通りにならない。だからこそ、向き合った時間がそのまま愛着になる。
今のEVO-X2をはじめとするStrix Haloのマシンは、まさにその状態だと思う。ただ、唯一違うのは、それが「最新のハードウェア」であるということだ。
閑話休題
ROCm 8.0のプレリリース版的な位置付けの7.13が出たので、ComfyUIで作ってみた。時間をすごく割いたがだいぶ不要な環境変数を外すことができた。
以下が、そのDockerfile。
安定版(これがおすすめ)
torch 2.10.0+rocm7.13.0a20260513
hip 7.13.26183
triton 3.5.1
numpy 2.4.5
最新にしまくったもの(torch 2.12.0 実はそんな速くはならなかった。)
AMDのPlaybookから作ったもの(これもそんな速くなかった。)
結果は、Z-image Turboのデフォルトのラテン系女性の画像生成は、ROCm 7.2.3の22秒代から18秒代で4秒くらい短縮。Pytorchを最新の2.12などにしてみたが、20秒近辺と、ROCm7.2とあまり変わらなかった。
ただ、初回ロード400-600秒とすごく時間がかかる。
その後は、普通に使える。面白いのが、一度モデルがロードされると、Dockerイメージを切り替えても、なぜかモデルの初期ロードが発生しない。モデル自体がメモリにキャッシュとしてロードされているからか?
ちなみに、AMDのPlaybookに記載されているComfyUIを作ってもROCm7.13になる。
最近Pytorch 2.12が出た。Docker Hubのイメージを見る限り、Pytorch でサポートされているcudaが12.6, 13.0, 13.2しか無くなった。
自分の環境は、QNAPのNASに関しては、QNAP自体が12.9どまりだが、手持ちのGPUはPascalコアなので、12.6で問題ない。PytorchのDockerイメージだとCUDA 12.9だけはだいぶ前に更新が止まっている。
他の環境は、全てBlackwellなので、cuda 13.0以降が動くしパフォーマンス最適化がなされているので問題ない。
BlackwellではCU126が動かない、CU128/129だとパフォーマンスが出ないという証明が済んだので、もう12.8/12.9は積極的にメンテナンスする必要はない。忘れようw
よって、ComfyUIのDocker Imageは以下しかメンテナンスをしないことにした。
これくらいあれば、一般的な世間の環境は網羅できるかと。(本当は、これ以外の環境もAIMDOとか更新したかったがめんどくさくてやめた)
- cu130: AMD64/ARM64
-
cu132: AMD64/ARM64
-
ROCm 7.2: AMD64 (Strix Halo向け)
-
ROCm 7.13: AMD64 (Strix Halo向け)
とりあえずロードできることしか確認しない。
-
CPU: AMD64/ARM64
-
cu126: AMD64 (手持ちのQNAPに入っているGPU向け)
だいぶビルドの手間が省ける。よく考えたらARM64のCU126版なんてなぜ作っていたんだろうかw