2024/1/8更新
Google ColabでStable Diffusionによる画像生成 - MBP(はてな)
M1 MacBook Air, Memory 8GB, 7コアGPU
アワートAI - AIイラスト投稿サイト&生成も無料でできる!
PixAI - Anime AI Art Generator for Free
chichi-pui(ちちぷい)| AI画像専用の投稿&生成サイト
MochiDiffusion
promptの文字数制限がある(75文字)
zenn.dev
Generateボタンを押して、20秒くらいで画像を1枚表示できた。
12steps, anything-v4.5
Draw Things
zenn.dev
Generateボタンを押して、30秒くらいで画像を1枚表示できた。
20steps, Anything v3
model一覧からAnithing v3を選択
InvokeAI
GitHub - invoke-ai/InvokeAI: InvokeAI is a leading creative engine for Stable Diffusion models, empowering professionals, artists, and enthusiasts to generate and create visual media using the latest AI-driven technologies. The solution offers an industry leading WebUI, supports terminal use through a CLI, and serves as the foundation for multiple commercial products.
Invokeボタンを押して、2分1秒で512x512の画像を1枚表示できた
100% 20/20 [02:01<00:00, 6.10s/it] k_euler_a
wd-v1-3-full.ckpt
(invokeai) (anaconda3-2022.05) ~/work/InvokeAI $ python scripts/invoke.py --web
http://127.0.0.1:9090
Install
2. with pyenv
$ brew install pyenv-virtualenv cmake protobuf rust
$ pyenv install anaconda3-2022.05
$ pyenv virtualenv anaconda3-2022.05
$ eval "$(pyenv init -)"
$ pyenv activate anaconda3-2022.05
(anaconda3-2022.05) $ mkdir ~/work && cd ~/work
(anaconda3-2022.05) $ git clone https://github.com/invoke-ai/InvokeAI.git
(anaconda3-2022.05) $ cd InvokeAI
(anaconda3-2022.05) $ mkdir -p models/ldm/stable-diffusion-v1/
(anaconda3-2022.05) $ PATH_TO_CKPT="$HOME/Downloads"
(anaconda3-2022.05) $ ln -s "$PATH_TO_CKPT/wd-v1-3-full.ckpt" models/ldm/stable-diffusion-v1/model.ckpt
(anaconda3-2022.05) $ PIP_EXISTS_ACTION=w CONDA_SUBDIR=osx-arm64 conda env create -f environment-mac.yml
(anaconda3-2022.05) $ conda activate invokeai
(invokeai) (anaconda3-2022.05) $ python scripts/preload_models.py
Download でcustomize the listを選択して、
waifuとft-mseだけy、他はnにする
(invokeai) (anaconda3-2022.05) $ python scripts/invoke.py --web
2分くらいかかる。
safariでhttp://127.0.0.1:9090を開く
空き領域 151.25GB
再度、Web UIを実行したい場合は、以下のコマンドを実行します。
$ cd ~/work/InvokeAI && eval "$(pyenv init -)" && pyenv activate anaconda3-2022.05 && conda activate invokeai && python scripts/invoke.py --web
http://127.0.0.1:9090
config (自動生成)
~/work/InvokeAI/configs/models.yaml
uninstall
$ pyenv uninstall anaconda3-2022.05
Installation on Apple Silicon · AUTOMATIC1111/stable-diffusion-webui Wiki · GitHub
AUTOMATIC1111/stable-diffusion-webui
Generateボタンを押して、1分45秒で512x512の画像を1枚表示できた
Total progress: 100%| 20/20 [01:45<00:00, 5.26s/it]
Install
$ brew install cmake protobuf rust python git wget
$ cd ~/Documents/
$ curl https://raw.githubusercontent.com/dylancl/stable-diffusion-webui-mps/master/setup_mac.sh -o setup_mac.sh
$ chmod +x setup_mac.sh
$ ./setup_mac.sh
Have you already installed the model? (y/n) の時に別Terminalで、
$ ln -s ~/Downloads/wd-v1-3-full.ckpt ~/Documents/stable-diffusion-webui/models/Stable-diffusion/sd-v1-4.ckpt して、y を入力して、Enter
safariでhttp://127.0.0.1:7860を開く
空き領域 164.41GB
再度、Web UIを実行したい場合は、以下のコマンドを実行します。
$ cd ~/Documents/stable-diffusion-webui && ./run_webui_mac.sh
http://127.0.0.1:7860
【Automatic1111】Mac(M1/M2)のローカルでStableDiffusionを使う方法【SDXL対応】
公式のStable Diffusionをローカルで実行 (diffusers)
pipeを変更すると、waifu 1.2, waifu 1.3で実行可能
$ python3 test.pyの実行時間 2分39秒で512x512の画像を1枚生成できた
100% 20/20 [02:39<00:00, 7.96s/it]
50stepsで8分45秒
100% 51/51 [08:45<00:00, 10.31s/it]
Install
$ pip3 install transformers scipy ftfy diffusers torch
$ vi test.py して、コードを貼り付け
SD_TOKENにトークンをセット。stepsは20に変更。promptはskyに変更。
$ python3 test.py で実行。初回は時間がかかる
imagesフォルダにsky-step_20.pngが生成される
【StableDiffusion】よわよわMacBookでもAIに絵を描かせたい! #Python - Qiita
negative_prompt
Stable diffusion bs>1 uses negative as prompt - 🧨 Diffusers - Hugging Face Forums
seed値指定
【Stable Diffusion】seed固定による同じ画像の作成 | ジコログ
seed値で画像を再現 – Stable Diffusion – FRONT
Gradio
$ pip3 install gradio
参考 gradio-keras-webui.py · GitHub
再度実行する時は、
$ python3 work/diffuser/webui_waifu1.2.py
http://127.0.0.1:7861
waifu-diffusion (diffusers)
GPUがフルに使われていない
$ mkdir work; cd work
$ vi test.pyして、import torch以降の内容で作成
【StableDiffusion】よわよわMacBookでもAIに絵を描かせたい! #Python - Qiita を元に、
mpsをcpuに変更して、step数を20に変更すると、
$ python3 waifu-diffusion.pyで、3分38秒で生成できた
100% 20/20 [03:38<00:00, 10.92s/it]
mpsの時、$ time python test.pyの実行時間 1時間くらいで512x512の画像を1枚生成できた
4% 2/50 [02:32<1:00:41, 75.86s/it]
M1 Macでwaifu-diffusion #Mac - Qiita
Waifu 1.3(torch_dtypeがあると生成できなかったので削除)
Waifu Diffusion 1.3が動かない場合の対応 | ジコログ
Waifu Diffusion Demo - a Hugging Face Space by hakurei
Gradio
$ conda activate diffusion して、
pipe = StableDiffusionPipelineを変更。pipi.to("mps")に変更。num_samples = 1に変更。
StableDiffusionPipelineを実行する前にログインが必要
CompVis/stable-diffusion-v1-4 · Hugging Face
$ python test.pyして、http://127.0.0.1:7860を開ける。
1時間くらいで1枚生成できそう。01:22<1:07:17
seedを指定
【やってみた】Stable Diffusionで画像生成! - 神戸のデータ活用塾!KDL Data Blog
GUIアプリ Diffusion Bee
Version 1.4.3。実行して1分13秒で512x512の画像を1枚生成できた
GPUがフルに使われている
画像生成 AI StableDiffusion を AppleSillicon Mac 簡単に使う3つの方法
好みの画像を生成できるAI「Stable Diffusion」をmacOS環境で超簡単に実行できる「Diffusion Bee」が登場したので使ってみた - GIGAZINE
Releases · divamgupta/diffusionbee-stable-diffusion-ui · GitHub
DiffusionBee-1.4.3-arm64_TF_SD1.4_FP32.dmg
~/.diffusionbee/downloads に8.53GB
diffusion_model.h5 3.44GB
diffusion_model_15_inpaint.h5 3.44GB
Stable Diffusion in TensorFlow / Keras
2022/9/25 2873079 txt2img.pyの実行時間 1分7秒で512x512のpng画像を1枚生成できた
50 stepsの時、2分21秒
GPUがフルに使われている
$ cd stable-diffusion-tensorflow
$ time python text2image.py --prompt="An astronaut riding a horse" --output="my_image1.png" --steps=20
100%. 20/20 [01:07<00:00, 3.37s/it]
100%. 40/40 [01:55<00:00, 2.90s/it]
100%. 50/50 [02:21<00:00, 2.84s/it]
--seed=123で2回実行して同じ画像を生成できた
samplerはK_LMS?Default sampler · Issue #12 · divamgupta/stable-diffusion-tensorflow · GitHub
LMS で高品質の画像を手に入れるには 50 ステップ必要 Waifu Diffusion で効率的に画像を生成する
promptが長いときはエラー。AssertionError: Prompt is too long (should be < 77 tokens)
GitHub - divamgupta/stable-diffusion-tensorflow: Stable Diffusion in TensorFlow / Keras
Install
$ mkdir github && cd github
$ git clone https://github.com/divamgupta/stable-diffusion-tensorflow
$ cd stable-diffusion-tensorflow
$ pip install -r requirements_m1.txt
$ python3 -m venv venv
$ source venv/bin/activate
(venv) $ pip install -r requirements_m1.txt
(venv) $ time python text2image.py --prompt="An astronaut riding a horse" --output="my_image1.png" --steps=20
(venv) (base) $ time python text2image.py --prompt="An astronaut riding a horse" --output="my_image2.png" --steps=20 --seed=123
または、(venv) (base) $ vi test.py して、GitHubの内容で作成して、(venv) (base) $ time python test.py。seed=123,を追加して2回実行すると同じ画像を生成できた。
インストール前:185.55GB利用可能、システムデータ25.9GB
インストール後:177.35GB利用可能、システムデータ28.66GB
~/.keras/datasets に4.27GB
model?
$ cd github/stable-diffusion-tensorflow
$ vi stable_diffusion_tf/stable_diffusion.py
diffusion_model_weights_fpath
https://github.com/keras-team/keras-cv/blob/master/keras_cv/models/generative/stable_diffusion/stable_diffusion.py
~/.keras/datasets/diffusion_model.h5
Gradio(prompt、Count, Steps, Scacle, Seedを指定)
gradio-keras-webui.py · GitHub
ベースは、Add WebUI by n0madic · Pull Request #16 · divamgupta/stable-diffusion-tensorflow · GitHub. のwebui.py
$ cd stable-diffusion-tensorflow; vi webui.py
generator = を置き換え。GitHub - divamgupta/stable-diffusion-tensorflow: Stable Diffusion in TensorFlow / Keras
from stable_diffusion_tf.stable_diffusion import Text2Image も置き換え。
$ pip install gradio
$ python webui.py して、
http://127.0.0.1:7860 を開く
再度、Web UIを実行したい場合は、以下のコマンドを実行します。
$ cd ~/github/stable-diffusion-tensorflow && source venv/bin/activate && python webui.py
http://127.0.0.1:7860
Gradio(promptのみ指定)
ベースは、Waifu Diffusionをローカル環境で動かした手順 のsample.py
with autocast("cuda"):の下を、generator = と、images = に置き換え。GitHub - divamgupta/stable-diffusion-tensorflow: Stable Diffusion in TensorFlow / Keras
pipeは削除。num_samples = 1に変更。return imgに変更。
from stable_diffusion_tf.stable_diffusion import StableDiffusion
from PIL import Image を追加
($ conda activate diffusion M1 Macでwaifu-diffusion #Mac - Qiita)
$ python my-gradio.py して、
http://127.0.0.1:7860 を開く
Add WebUI by n0madic · Pull Request #16 · divamgupta/stable-diffusion-tensorflow · GitHub
Gradio を使って簡易アプリ作成 (計算機編) | AIリサーチコレクション
Stable Diffusion(scripts/txt2img.py) エラーで実行できなくなった
GPUがフルに使われていない
txt2img.pyの実行時間 8分18秒で512x512のpng画像を1枚生成できた
PLMS Sampler: 100%. 20/20. 08:18<00:00, 24.93s/it
--seed 0にして2回実行した時に違う画像になった。--seedは効かない?
$ time python scripts/txt2img.py --prompt "a boy" --plms --n_samples 1 --n_iter 1 --ddim_steps 20
Install
$ mkdir work; cd work (任意)
$ git clone -b apple-silicon-mps-support https://github.com/bfirsh/stable-diffusion.git
$ cd stable-diffusion
ckptファイルを取得 ~/Downloads/sd-v1-5-pruned-emaonly.ckpt
$ mkdir -p models/ldm/stable-diffusion-v1
$ ln -s ~/Downloads/sd-v1-5-pruned-emaonly.ckpt models/ldm/stable-diffusion-v1/model.ckpt
$ conda env create -f environment-mac.yaml
$ conda init zsh
Tewminal再起動
$ cd ~/work/stable-diffusion
$ conda activate ldm
(ldm) $ time python scripts/txt2img.py --prompt "a red juicy apple floating in outer space, like a planet" --plms --n_samples 1 --n_iter 1 --ddim_steps 20
ImportError: cannot import name 'ReduceOp' from 'torch.distributed' (/opt/homebrew/Caskroom/miniconda/base/envs/ldm/lib/python3.10/site-packages/torch/distributed/__init__.py)
19分くらいで、outputs/txt2img-samples/ に画像が生成される
PLMS Sampler: 100% 20/20 [18:35<00:00, 55.76s/it]
再度、実行したい場合は、以下のコマンドを実行します。
$ cd ~/work/stable-diffusion && source venv/bin/activate && time python scripts/txt2img.py --prompt "a red juicy apple floating in outer space, like a planet" --plms --n_samples 1 --n_iter 1 --ddim_steps 20
28分くらいかかりそう
PLMS Sampler: 15% 3/20 [04:23<23:09, 81.74s/it]
M1 Mac に Stable Diffusion をインストールする #StableDiffusion - Qiita
M1 MacBook ProでStable Diffusionを動かすまでのメモ
Stable Diffusion を M2 Macのpipenvで動かす
PyTorchをM1 MacBook のGPU(MPS)で動かす.実行時間の検証もしたよ
optional arguments:
GitHub - bfirsh/stable-diffusion
wd-v1-3-full.ckpt で、$ time python scripts/txt2img.py --prompt "An astronaut riding a horse" --plms --n_samples 1 --n_iter 1 --ddim_steps 20
20分くらいで512x512のpng画像を1枚生成できた
PLMS Sampler: 100% 1/1 [19:32<00:00, 58.61s/it]
16.91s user/ 294.70s system/ 24% cpu/ 21:07.40 total
token
Hugging Face – The AI community building the future.
python REPL
実行時間 25分29秒で完了。saveで画像を保存できた。
100% 51/51 [25:29<00:00, 29.99s/it]
2回目は、9分14秒で完了
100% 51/51 [09:14<00:00, 10.88s/it]
Load from a directory:で実行すると、8分45秒で画像を保存できた。
100% 51/51 [08:45<00:00, 10.30s/it]
"mps"を"cpu"に変更、"sample"を"images"に変更
>>>r = p("a photograph of an astronaut riding a horse")
Install
先にStable Diffusion(scripts/txt2img.py)をインストール
$ cd ~/work/stable-diffusion
$ source venv/bin/activate
(venv) $ python
空き領域 132.32GB
stable-diffusion on M1 MacBook Air 2020
GPU
M1 MacBook Air に stable diffusion をインストールしてみた | 林檎コンピュータ
M1 MacBook Air. 16G
流行りのStable DiffusionをM1 MacBook Airで遊んでみた | paraches lifestyle lab.
M1 (M2) MacBookのStable Diffusion環境セットアップでエラー | 合同会社ペンギン
Jupyter notebook
実行して31分49秒で512x512の画像を1枚生成できた
25分くらいで生成できそう
9% 1/11 [02:14<22:27, 134.78s/it]
【diffusers0.10.0】M1/M2 MacのローカルにStableDiffusion環境を構築する
Install
$ git config --global credential.helper
$ huggingface-cli login
(ログインしないとjupyter notebookで実行した時にエラー)
先にInvoke AIをインストール
$ eval "$(pyenv init -)" && pyenv activate anaconda3-2022.05
(anaconda3-2022.05) $ conda create --name sdf python=3.10
(anaconda3-2022.05) $ conda activate sdf
(sdf) (anaconda3-2022.05) $ pip3 install --pre torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/nightly/cpu
(sdf) (anaconda3-2022.05) $ pip3 install --pre torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/nightly/cpu -U
(sdf) (anaconda3-2022.05) $ pip install transformers
(sdf) (anaconda3-2022.05) $ pip install --upgrade diffusers
(sdf) (anaconda3-2022.05) $ pip install jupyter
(sdf) (anaconda3-2022.05) $ conda deactivate
(anaconda3-2022.05) $ conda activate sdf
(sdf) (anaconda3-2022.05) $ jupyter notebook
初回実行時はダウンロードに時間がかかる
27% 3/11 [07:28<20:22, 152.85s/it] 28分くらい
Jupyter notebook
img2imgで画像を生成できた。3枚生成。
【Diffusers】MacでStableDiffusionのImg2Imgのpython環境を整える
2022/9/2追加
画像生成AI「Stable Diffusion」をM1搭載Macのローカル上で実行する方法 - GIGAZINE
sd-v1.5
v1-5-pruned-emaonly.ckpt
v1-5-pruned-emaonly.ckpt · runwayml/stable-diffusion-v1-5 at main
Stable Diffusion 1.5vの利用方法 | ジコログ
sd-vae
https://twitter.com/forasteran/status/1583473900335554562?s=12&t=9K38_hVqkqGg561I-ukqvw
sd-v1-4.ckpt
CompVis/stable-diffusion-v-1-4-original · Hugging Face
waifu-diffusion (wd-v1-3-full.ckpt)
wd-v1-3-full.ckpt · hakurei/waifu-diffusion-v1-3 at main
waifu-diffusion (wd-v1-2-full-ema.ckpt) Original PyTorch Model Download Link
hakurei/waifu-diffusion · Hugging Face
TrinArtキャラクターモデル(trinart_characters_it4_v1.ckpt)
trinart_characters_it4_v1.ckpt · naclbit/trinart_characters_19.2m_stable_diffusion_v1 at main
【Stable Diffusion】TrinArtキャラクターモデルを使う方法 | ジコログ
https://gadgelaun.com/?p=40691
trinart (trinart_stable_diffusion_epoch3.ckpt)
https://huggingface.co/naclbit/trinart_stable_diffusion/blob/main/trinart_stable_diffusion_epoch3.ckpt
M1 MacBook ProでStable Diffusionを動かすまでのメモ
Stable Diffusion を M2 Macのpipenvで動かす
stable-diffusion on M1 MacBook Air 2020
オフィシャルのデモサイト
Stable Diffusion 2-1 - a Hugging Face Space by stabilityai
環境セットアップ
($ brew install anaconda miniconda rust cmake protobuf openblas python git-lfs
(System Dataが30.33GBになった。9GBくらい増えた?
ユーザー登録
右上のSign upから登録
CompVis/stable-diffusion-v-1-4-original · Hugging Face
$ conda init zsh
~/.zshrcの末尾にいろいろ追加される
$ cd stable-diffusion
$ conda env create -f environment-mac.yaml
(2回目以降は、$ conda env update -f environment-mac.yaml)
protobuf==3.20.1
M1 MacでStable Deffusionを動かそうとして詰まった
$ conda install pytorch torchvision torchaudio -c pytorch-nightly
functional.pyを変更
$ vi /opt/homebrew/Caskroom/miniconda/base/envs/ldm/lib/python3.9/site-packages/torch/nn/functional.py
M1 MacBook ProでStable Diffusionを動かすまでのメモ
再度実行すると、outputsフォルダに画像が生成された
$ time python scripts/txt2img.py --prompt "a photograph of an astronaut riding a horse" --plms --n_samples 1 --n_iter 1
Diffusers (CompVis/ldm-text2im-large-256)
$ mkdir work && cd work
$ python3 -m venv my_diffusers
$ source my_diffusers/bin/activate
(my_diffusers) $ pip install --upgrade diffusers
(my_diffusers) $ pip3 install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113
(my_diffusers) $ pip install transformers
(my_diffusers) $ vi test.py して、"sample"を0に変更 最先端の機械学習モデルを利用できるDiffusersのインストール | ジコログ
(my_diffusers) $ python3 test.py
49秒で256x256のpng画像が生成された
100%. 20/20 [00:49<00:00, 2.48s/it]
最先端の機械学習モデルを利用できるDiffusersのインストール | ジコログ
openvinoのインストールが必要なときは、
$ pip install openvino-arm
Apple silicon (M1) prebuilt openvino with arm plugin wheels released on PyPI · Issue #11554 · openvinotoolkit/openvino · GitHub
OpenCV (cv2)のインストールが必要なときは、
$ pip install opencv-python-headless
M1のMACでOpenCV導入に苦労した話 #Python - Qiita
$ pip install tensorflow-macosを実行すると、公式のStable Diffusionをローカルで実行 (diffusers)が動かなくなる
2022-11-04 10:38:36.257393: F tensorflow/c/experimental/stream_executor/stream_executor.cc:808] Non-OK-status: stream_executor::MultiPlatformManager::RegisterPlatform( std::move(cplatform)) status: INTERNAL: platform is already registered with name: "METAL"
TensorFlowのインストールが必要なときは、
$ pip install tensorflow-macos
M1 MacにTensorFlowをインストールする #Mac - Qiita
アンインストールすると動くようになった
$ pip uninstall tensorflow-macos
sd-gui
GitHub - FahimF/sd-gui: Clean and simple Stable Diffusion GUI for macOS, Windows, and Linux
$ python app.py で起動
試しに1 stepで3分39秒
100% 1/1 [03:39<00:00, 219.77s/it]
Time taken: 258.78071999549866s
画面サイズ変更であまり小さくできず画面に収まらない
世界変革の前夜は思ったより静か|深津 貴之 (fladdict)
StableDiffusionを使った新しいAI作画サービスを作りました。日本語でOK。無料です|shi3z
https://twitter.com/hashtag/memeplex
https://samezi-but.com/toaru-ai-no-prompt-generater-for-midjourney/
やばすぎるAI画像生成サービス「Stable Diffusion」始まる。 【簡単解説 & 応用 & Prompt付生成事例集】|やまかず
23億枚もの画像で構成された画像生成AI「Stable Diffusion」のデータセットのうち1200万枚がどこから入手した画像かを調査した結果が公開される - GIGAZINE
Pythonライブラリ(AI generated Art):stable diffusion|KIYO
Stable Diffusion でうまくいった prompt を載せていくやつ|6uclz1
M1 Macbook Proローカル環境でstable diffusionを動かすときのハマリポイント #Mac - Qiita
画像生成AI(MidjourneyとStableDiffusion)の生成結果をキーワードから一覧化するページ(Twitter検索) #Python - Qiita
(11/25更新)StableDiffusionの個人的まとめ&遊ぶときに参考にしたサイトたち #AI - Qiita
Prompt 呪文詠唱 完全入門 ~ Midjourney , StableDiffusion ~
https://note.com/diff_momot/n/n527e73dc73b6
Stable Diffusion を Google Colabで実行する際に便利なコード
無料の「画像生成AIサービス」を国内最速で作ったら、クラウド料金が1日10万円になりかけた話【Stable Diffusion】 | Business Insider Japan
22/09/18 Stable Diffusionの追加トレーニングについてのサーベイ | Built with Notion
22/09/19 画面解像度の検証 | Built with Notion
「この画像っぽい○○を生成」を画像生成AI「Stable Diffusion」で実現する技術「Textual Inversion」が登場 - GIGAZINE
創薬ちゃん生成チャレンジ参加記(kawaii作成のための指針2)
https://twitter.com/search?q=%23stablediffusionkawaii&src=typed_query
【随時更新】AIお絵描きで遊ぼう(Memeplex、StableDiffusion)|msonrm
絵下手マンがWaifu Diffusionでファンアートを描く方法 #StableDiffusion - Qiita
https://www.stable-diffusion.click
https://twitter.com/hashtag/StableDiffusionSandbox
Deforum Diffusion と Waifu Diffusion によるAI動画生成|npaka
Run Stable Diffusion on Your M1 Mac’s GPU | Hacker News
22/09/26 Stable Diffusion追加学習の記録 | Built with Notion
image検索
https://avyn.com
https://laion-aesthetic.datasette.io/laion-aesthetic-6pls/images
【AIお絵かき】Stable Diffusion―この子「Pixiv」知ってるの?できること、できないこと #AI - Qiita
Sampling methodとStepの比較
StableDiffusionのサンプリング法 #DeepLearning - Qiita
Stable Diffusion プロンプトの組み立て方 | Knowledge Swimmer メモ
The Ai Art - AI, Art, and everything in between
openvino(CPU)版で Waifu Diffusion を実行する(Windows, Linux)
画像生成AI「Stable Diffusion」でいろいろ特化した使えるモデルデータいろいろまとめ - GIGAZINE
強力な呪文見つけた!?AIイラストレーションでいろいろ遊んでみた。|あかり
Midjourney/Stable Diffusionの書 〜呪文詠唱して画像生成〜
https://twitter.com/forasteran/status/1579434714225836034
Stable Diffusion を基礎から理解したい人向け論文攻略ガイド【無料記事】
【日本語訳】元素法典 第1巻 #NovelAI #元素法典|さいぴ
StableDiffusionとNovelAIで要素強調するためのプロンプト仕様の違い|ウチダマサトシ
Stable UI - Create images with Stable Diffusion
ゼロから始めるPaperspace Gradient【Google Colab代替サービス】 #Python - Qiita
Stable DiffusionをSingularityで動かす #初心者 - Qiita
KerasCV を使って 2行で StableDiffusion を使う #StableDiffusion - Qiita
GitHub - apple/ml-stable-diffusion: Stable Diffusion with Core ML on Apple Silicon
$ cd ~/github/ml-stable-diffusion
$ conda activate coreml_stable_diffusion
$ mkdir output2
(coreml_stable_diffusion) $ python -m python_coreml_stable_diffusion.pipeline --prompt "a photo of an astronaut riding a horse on mars" -i output -o output2 --compute-unit ALL --seed 93
mlpackageの読み込み時間 + 44秒
100% 51/51 [00:44<00:00, 1.15it/s]
Swift で Core ML を使って Stable Diffusion に画像生成させる #Swift - Qiita
【Swift】Core ML Stable Diffusionを使ってみた(Apple Silicon) | thwork
ElixirのライブラリBumblebeeのStable DiffusionをM1 Macで試してみた #Elixir - Qiita
IBM Cloud GPUサーバー環境で Stable Diffusionの画像変換(image2image) を実行 #Python - Qiita
エンドポイントを削除しないと課金され続けるので注意
機械学習初学者が Amazon SageMaker で Stable Diffusion を動かしてみた #機械学習 - Qiita
【初心者向け】Amazon SageMakerではじめる機械学習 #SageMaker | DevelopersIO
https://vivinko.com/inoue/blog/2018/11/04/092159.html
エンドポイントを削除したあと、1時間後くらいにコスト概要とAWS Billing Dashboardを確認。課金され続けていないか
https://us-east-1.console.aws.amazon.com/cost-management/home?region=us-east-1#/dashboard
https://us-east-1.console.aws.amazon.com/billing/home#/
画像生成を実行して5秒くらいで画像を表示できた。
SageMaker エンドポイント作成 を実行した時に*のままで完了にならなかったが、画像生成できた。
過去または現在の AWS の支払いを表示する | AWS re:Post