zdd

zdd

Apple M1でstable-diffusionを活用する方法

AIGC の波に何度も打たれた後、Midjourney の無料の 25 枚はまだ私に「魔法の呪文」を教えてくれませんでした。外貨決済のクレジットカードがないので、リチャージは面倒です。だから、オープンソース万歳の時がまたやってきました。stable-diffusion を練習して魔法の呪文を続けます。Apple の M シリーズチップは強力な計算能力を持ち、統一メモリの技術と組み合わせることで M シリーズの Mac で SD を楽しむことができます。ただし、少なくとも 16G のメモリが必要です!

https://oss.productnose.com/assets/stable-diffusion-demo-2.jpg|inline

コマンドラインを使わない原則に基づいて、https://github.com/AUTOMATIC1111/stable-diffusion-webuiのオープンソースプロジェクトを選んでいじくり回し、全体のセットアッププロセスが非常に自動化されています。Apple の ARM チップの自動インストールスクリプトです。

基本的な環境の準備#

Python、Rust などの基本的な実行環境が必要です。Homebrew をすでにインストールしている場合は、次のコマンドを使用してインストールできます。

brew install cmake protobuf rust [email protected] git wget

プロジェクトのダウンロード#

まず、このプロジェクトのアドレスに移動します:https://github.com/AUTOMATIC1111/stable-diffusion-webui

Git を使える場合は、プロジェクトを直接クローンできます。

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui

できない場合でも問題ありません。プロジェクトのコードの圧縮ファイルを直接ダウンロードできます。

[https://github.com/AUTOMATIC1111/stable-diffusion-webui/archive/refs/heads/master.zip](https://github.com/AUTOMATIC1111/stable-diffusion-webui/archive/refs/heads/master.zip)

モデルのダウンロード#

プロジェクトのコードにはモデルが含まれていないため、公式のモデルリポジトリまたはHugging Faceからトレーニング済みのモデルをダウンロードする必要があります。画像生成のモデルは通常、かなり大きいため、ネットワークが遅い場合は時間がかかる場合があります。

いくつかの人気のある公式の安定したモデル:

Hugging Faceでは、Text-to-Image を選択して人気のあるモデルを探すことができます。

https://oss.productnose.com/assets/huggingface.png|inline

最後に、ダウンロードしたモデルを次のディレクトリに配置します。

stable-diffusion-webui/models/Stable-diffusion

さあ始めましょう#

ターミナルでプロジェクトのルートディレクトリに移動し、次のコードを実行し、実行の完了を待ってからブラウザで127.0.0.1:7860にアクセスして魔法を始めましょう。

./webui.sh

txt2img メニューで魔法の呪文を入力すると、魔法が始まります。以下のプロパティは、生成される画像の解像度、数などを調整するためのものです。後の記事で遊び方を学びます。(私も学ばなければなりませんが、少し複雑です、ハハハハ)

https://oss.productnose.com/assets/20230323160108.png|inline

体験について#

画像生成の速度については、私の MacBookPro M1 Pro 32G での経験に基づいて、512 解像度の画像は非常に速く生成されます。通常、15 秒以内に完了します。もちろん、サンプリングステップやバッチ生成数の増加に伴い、時間も増加します。約 30 分遊んだ後、MBP の温度が上がってきたのがわかります。

公式の Apple ARM での使用に関するいくつかの注意事項があります。現時点では、私はまだこれらに遭遇していません(主にいくつかの高度なプレイ方法はまだ使用していません)。

現在、Web UI のほとんどの機能は macOS 上で正常に動作しますが、CLIP インタロゲーターやトレーニングなどの最も注目すべき例外があります。トレーニングは動作するようですが、非常に遅く、過剰なメモリを消費します。CLIP インタロゲーターは使用できますが、macOS で使用される GPU アクセラレーションと正しく動作しないため、デフォルトの設定では CPU を完全に使用して実行されます(これは遅いです)。

GPU アクセラレーションを使用した macOS 上での生成画像は、通常、同じ設定とシードで CPU 上で生成された画像とほぼ一致するか、ほぼ一致するはずです。

現時点では、macOS 上での GPU アクセラレーションを使用した生成画像は、通常、同じ設定とシードで CPU 上で生成された画像とほぼ一致するか、ほぼ一致するはずです。

その後#

最近、AIGC を使用して見栄えの良いロゴを生成したいと思っています。美術デザインの背景を持たないで描いたロゴは本当に見るに耐えません。今後、学んだプロセスと使用方法のチュートリアルを整理して共有する予定です。それでは、また後でお会いしましょう!

参考文献:

https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Installation-on-Apple-Silicon#downloading-stable-diffusion-models

読み込み中...
文章は、創作者によって署名され、ブロックチェーンに安全に保存されています。