MBP(はてな)

MacBook Pro,iPhone Xs,React

M1 MacBook AirでStable Diffusionを動かす

2024/1/8更新

Google ColabでStable Diffusionによる画像生成 - MBP(はてな)


M1 MacBook Air, Memory 8GB, 7コアGPU


アワートAI - AIイラスト投稿サイト&生成も無料でできる!

https://aivy.run

https://www.aipic.app/en

PixAI - Anime AI Art Generator for Free

Home | MajinAI

chichi-pui(ちちぷい)| AI画像専用の投稿&生成サイト



MochiDiffusion
promptの文字数制限がある(75文字)
zenn.dev
Generateボタンを押して、20秒くらいで画像を1枚表示できた。
12steps, anything-v4.5




Draw Things
zenn.dev
Generateボタンを押して、30秒くらいで画像を1枚表示できた。
20steps, Anything v3
model一覧からAnithing v3を選択





InvokeAI
GitHub - invoke-ai/InvokeAI: InvokeAI is a leading creative engine for Stable Diffusion models, empowering professionals, artists, and enthusiasts to generate and create visual media using the latest AI-driven technologies. The solution offers an industry leading WebUI, supports terminal use through a CLI, and serves as the foundation for multiple commercial products.
Invokeボタンを押して、2分1秒で512x512の画像を1枚表示できた
100% 20/20 [02:01<00:00, 6.10s/it] k_euler_a
wd-v1-3-full.ckpt
(invokeai) (anaconda3-2022.05) ~/work/InvokeAI $ python scripts/invoke.py --web
http://127.0.0.1:9090

Install
2. with pyenv
$ brew install pyenv-virtualenv cmake protobuf rust
$ pyenv install anaconda3-2022.05
$ pyenv virtualenv anaconda3-2022.05
$ eval "$(pyenv init -)"
$ pyenv activate anaconda3-2022.05
(anaconda3-2022.05) $ mkdir ~/work && cd ~/work
(anaconda3-2022.05) $ git clone https://github.com/invoke-ai/InvokeAI.git
(anaconda3-2022.05) $ cd InvokeAI
(anaconda3-2022.05) $ mkdir -p models/ldm/stable-diffusion-v1/
(anaconda3-2022.05) $ PATH_TO_CKPT="$HOME/Downloads"
(anaconda3-2022.05) $ ln -s "$PATH_TO_CKPT/wd-v1-3-full.ckpt" models/ldm/stable-diffusion-v1/model.ckpt
(anaconda3-2022.05) $ PIP_EXISTS_ACTION=w CONDA_SUBDIR=osx-arm64 conda env create -f environment-mac.yml
(anaconda3-2022.05) $ conda activate invokeai
(invokeai) (anaconda3-2022.05) $ python scripts/preload_models.py
Download でcustomize the listを選択して、
waifuとft-mseだけy、他はnにする
(invokeai) (anaconda3-2022.05) $ python scripts/invoke.py --web
2分くらいかかる。
safarihttp://127.0.0.1:9090を開く

空き領域 151.25GB

再度、Web UIを実行したい場合は、以下のコマンドを実行します。
$ cd ~/work/InvokeAI && eval "$(pyenv init -)" && pyenv activate anaconda3-2022.05 && conda activate invokeai && python scripts/invoke.py --web
http://127.0.0.1:9090

config (自動生成)
~/work/InvokeAI/configs/models.yaml

uninstall
$ pyenv uninstall anaconda3-2022.05

negative prompts

Home - InvokeAI Documentation







Installation on Apple Silicon · AUTOMATIC1111/stable-diffusion-webui Wiki · GitHub
AUTOMATIC1111/stable-diffusion-webui
Generateボタンを押して、1分45秒で512x512の画像を1枚表示できた
Total progress: 100%| 20/20 [01:45<00:00, 5.26s/it]

Install
$ brew install cmake protobuf rust python git wget
$ cd ~/Documents/
$ curl https://raw.githubusercontent.com/dylancl/stable-diffusion-webui-mps/master/setup_mac.sh -o setup_mac.sh
$ chmod +x setup_mac.sh
$ ./setup_mac.sh
Have you already installed the model? (y/n) の時に別Terminalで、
$ ln -s ~/Downloads/wd-v1-3-full.ckpt ~/Documents/stable-diffusion-webui/models/Stable-diffusion/sd-v1-4.ckpt して、y を入力して、Enter

safarihttp://127.0.0.1:7860を開く

空き領域 164.41GB

再度、Web UIを実行したい場合は、以下のコマンドを実行します。
$ cd ~/Documents/stable-diffusion-webui && ./run_webui_mac.sh
http://127.0.0.1:7860

【Automatic1111】Mac(M1/M2)のローカルでStableDiffusionを使う方法【SDXL対応】












公式のStable Diffusionをローカルで実行 (diffusers)
pipeを変更すると、waifu 1.2, waifu 1.3で実行可能
$ python3 test.pyの実行時間 2分39秒で512x512の画像を1枚生成できた
100% 20/20 [02:39<00:00, 7.96s/it]
50stepsで8分45秒
100% 51/51 [08:45<00:00, 10.31s/it]

Install
$ pip3 install transformers scipy ftfy diffusers torch
$ vi test.py して、コードを貼り付け
SD_TOKENにトークンをセット。stepsは20に変更。promptはskyに変更。
$ python3 test.py で実行。初回は時間がかかる
imagesフォルダにsky-step_20.pngが生成される

【StableDiffusion】よわよわMacBookでもAIに絵を描かせたい! #Python - Qiita

negative_prompt
Stable diffusion bs>1 uses negative as prompt - 🧨 Diffusers - Hugging Face Forums

seed値指定
【Stable Diffusion】seed固定による同じ画像の作成 | ジコログ

seed値で画像を再現 – Stable Diffusion – FRONT

Gradio
$ pip3 install gradio
参考  gradio-keras-webui.py · GitHub

再度実行する時は、
$ python3 work/diffuser/webui_waifu1.2.py
http://127.0.0.1:7861







waifu-diffusion (diffusers)
GPUがフルに使われていない

$ mkdir work; cd work
$ vi test.pyして、import torch以降の内容で作成
【StableDiffusion】よわよわMacBookでもAIに絵を描かせたい! #Python - Qiita を元に、
mpsをcpuに変更して、step数を20に変更すると、
$ python3 waifu-diffusion.pyで、3分38秒で生成できた
100% 20/20 [03:38<00:00, 10.92s/it]

mpsの時、$ time python test.pyの実行時間 1時間くらいで512x512の画像を1枚生成できた
4% 2/50 [02:32<1:00:41, 75.86s/it]
M1 Macでwaifu-diffusion #Mac - Qiita

Waifu 1.3(torch_dtypeがあると生成できなかったので削除)
Waifu Diffusion 1.3が動かない場合の対応 | ジコログ

Waifu Diffusion Demo - a Hugging Face Space by hakurei

Gradio
$ conda activate diffusion して、
pipe = StableDiffusionPipelineを変更。pipi.to("mps")に変更。num_samples = 1に変更。

StableDiffusionPipelineを実行する前にログインが必要
CompVis/stable-diffusion-v1-4 · Hugging Face

$ python test.pyして、http://127.0.0.1:7860を開ける。
1時間くらいで1枚生成できそう。01:22<1:07:17

Waifu Diffusionをローカル環境で動かした手順

seedを指定
【やってみた】Stable Diffusionで画像生成! - 神戸のデータ活用塾!KDL Data Blog

Waifu Diffusion で効率的に画像を生成する










GUIアプリ Diffusion Bee
Version 1.4.3。実行して1分13秒で512x512の画像を1枚生成できた
GPUがフルに使われている
画像生成 AI StableDiffusion を AppleSillicon Mac 簡単に使う3つの方法

好みの画像を生成できるAI「Stable Diffusion」をmacOS環境で超簡単に実行できる「Diffusion Bee」が登場したので使ってみた - GIGAZINE

Releases · divamgupta/diffusionbee-stable-diffusion-ui · GitHub
DiffusionBee-1.4.3-arm64_TF_SD1.4_FP32.dmg

GitHub - divamgupta/diffusionbee-stable-diffusion-ui: Diffusion Bee is the easiest way to run Stable Diffusion locally on your M1 Mac. Comes with a one-click installer. No dependencies or technical knowledge needed.

~/.diffusionbee/downloads に8.53GB
diffusion_model.h5 3.44GB
diffusion_model_15_inpaint.h5 3.44GB







Stable Diffusion in TensorFlow / Keras
2022/9/25 2873079 txt2img.pyの実行時間 1分7秒で512x512のpng画像を1枚生成できた
50 stepsの時、2分21秒
GPUがフルに使われている
$ cd stable-diffusion-tensorflow
$ time python text2image.py --prompt="An astronaut riding a horse" --output="my_image1.png" --steps=20
100%. 20/20 [01:07<00:00, 3.37s/it]
100%. 40/40 [01:55<00:00, 2.90s/it]
100%. 50/50 [02:21<00:00, 2.84s/it]

--seed=123で2回実行して同じ画像を生成できた
samplerはK_LMS?Default sampler · Issue #12 · divamgupta/stable-diffusion-tensorflow · GitHub
LMS で高品質の画像を手に入れるには 50 ステップ必要 Waifu Diffusion で効率的に画像を生成する
promptが長いときはエラー。AssertionError: Prompt is too long (should be < 77 tokens)

GitHub - divamgupta/stable-diffusion-tensorflow: Stable Diffusion in TensorFlow / Keras

日刊 画像生成AI (2022年9月18日)|やまかず

Install
$ mkdir github && cd github
$ git clone https://github.com/divamgupta/stable-diffusion-tensorflow
$ cd stable-diffusion-tensorflow

$ pip install -r requirements_m1.txt
$ python3 -m venv venv
$ source venv/bin/activate
(venv) $ pip install -r requirements_m1.txt
(venv) $ time python text2image.py --prompt="An astronaut riding a horse" --output="my_image1.png" --steps=20
(venv) (base) $ time python text2image.py --prompt="An astronaut riding a horse" --output="my_image2.png" --steps=20 --seed=123
または、(venv) (base) $ vi test.py して、GitHubの内容で作成して、(venv) (base) $ time python test.py。seed=123,を追加して2回実行すると同じ画像を生成できた。
インストール前:185.55GB利用可能、システムデータ25.9GB
インストール後:177.35GB利用可能、システムデータ28.66GB

~/.keras/datasets に4.27GB

model?
$ cd github/stable-diffusion-tensorflow
$ vi stable_diffusion_tf/stable_diffusion.py

diffusion_model_weights_fpath
https://github.com/keras-team/keras-cv/blob/master/keras_cv/models/generative/stable_diffusion/stable_diffusion.py
~/.keras/datasets/diffusion_model.h5

Stable Diffusion Models

Gradio(prompt、Count, Steps, Scacle, Seedを指定)
gradio-keras-webui.py · GitHub
ベースは、Add WebUI by n0madic · Pull Request #16 · divamgupta/stable-diffusion-tensorflow · GitHub. のwebui.py
$ cd stable-diffusion-tensorflow; vi webui.py
generator = を置き換え。GitHub - divamgupta/stable-diffusion-tensorflow: Stable Diffusion in TensorFlow / Keras
from stable_diffusion_tf.stable_diffusion import Text2Image も置き換え。
$ pip install gradio
$ python webui.py して、
http://127.0.0.1:7860 を開く

再度、Web UIを実行したい場合は、以下のコマンドを実行します。
$ cd ~/github/stable-diffusion-tensorflow && source venv/bin/activate && python webui.py
http://127.0.0.1:7860

Gradio(promptのみ指定)
ベースは、Waifu Diffusionをローカル環境で動かした手順 のsample.py
with autocast("cuda"):の下を、generator = と、images = に置き換え。GitHub - divamgupta/stable-diffusion-tensorflow: Stable Diffusion in TensorFlow / Keras
pipeは削除。num_samples = 1に変更。return imgに変更。
from stable_diffusion_tf.stable_diffusion import StableDiffusion
from PIL import Image を追加

($ conda activate diffusion  M1 Macでwaifu-diffusion #Mac - Qiita

$ python my-gradio.py して、
http://127.0.0.1:7860 を開く

Add WebUI by n0madic · Pull Request #16 · divamgupta/stable-diffusion-tensorflow · GitHub

Gradio を使って簡易アプリ作成 (計算機編) | AIリサーチコレクション







Stable Diffusion(scripts/txt2img.py) エラーで実行できなくなった
GPUがフルに使われていない
txt2img.pyの実行時間 8分18秒で512x512のpng画像を1枚生成できた
PLMS Sampler: 100%. 20/20. 08:18<00:00, 24.93s/it
--seed 0にして2回実行した時に違う画像になった。--seedは効かない?
$ time python scripts/txt2img.py --prompt "a boy" --plms --n_samples 1 --n_iter 1 --ddim_steps 20

Install
$ mkdir work; cd work (任意)
$ git clone -b apple-silicon-mps-support https://github.com/bfirsh/stable-diffusion.git
$ cd stable-diffusion
ckptファイルを取得 ~/Downloads/sd-v1-5-pruned-emaonly.ckpt
$ mkdir -p models/ldm/stable-diffusion-v1
$ ln -s ~/Downloads/sd-v1-5-pruned-emaonly.ckpt models/ldm/stable-diffusion-v1/model.ckpt
$ conda env create -f environment-mac.yaml
$ conda init zsh
Tewminal再起動
$ cd ~/work/stable-diffusion
$ conda activate ldm
(ldm) $ time python scripts/txt2img.py --prompt "a red juicy apple floating in outer space, like a planet" --plms --n_samples 1 --n_iter 1 --ddim_steps 20

ImportError: cannot import name 'ReduceOp' from 'torch.distributed' (/opt/homebrew/Caskroom/miniconda/base/envs/ldm/lib/python3.10/site-packages/torch/distributed/__init__.py)

19分くらいで、outputs/txt2img-samples/ に画像が生成される
PLMS Sampler: 100% 20/20 [18:35<00:00, 55.76s/it]

再度、実行したい場合は、以下のコマンドを実行します。
$ cd ~/work/stable-diffusion && source venv/bin/activate && time python scripts/txt2img.py --prompt "a red juicy apple floating in outer space, like a planet" --plms --n_samples 1 --n_iter 1 --ddim_steps 20
28分くらいかかりそう
PLMS Sampler: 15% 3/20 [04:23<23:09, 81.74s/it]

M1 Mac に Stable Diffusion をインストールする #StableDiffusion - Qiita

M1 MacBook ProでStable Diffusionを動かすまでのメモ

Stable Diffusion を M2 Macのpipenvで動かす

PyTorchをM1 MacBook のGPU(MPS)で動かす.実行時間の検証もしたよ

optional arguments:
GitHub - bfirsh/stable-diffusion

M1 MacBook Air 2020 に Stable Diffusion と Real-ESRGAN をインストール AI絵師がローカルマシンで使い放題に | Digital Life Innovator


wd-v1-3-full.ckpt で、$ time python scripts/txt2img.py --prompt "An astronaut riding a horse" --plms --n_samples 1 --n_iter 1 --ddim_steps 20
20分くらいで512x512のpng画像を1枚生成できた
PLMS Sampler: 100%  1/1 [19:32<00:00, 58.61s/it]
16.91s user/ 294.70s system/ 24% cpu/ 21:07.40 total









token
Hugging Face – The AI community building the future.




python REPL
実行時間 25分29秒で完了。saveで画像を保存できた。
100% 51/51 [25:29<00:00, 29.99s/it]
2回目は、9分14秒で完了
100% 51/51 [09:14<00:00, 10.88s/it]
Load from a directory:で実行すると、8分45秒で画像を保存できた。
100% 51/51 [08:45<00:00, 10.30s/it]
"mps"を"cpu"に変更、"sample"を"images"に変更
>>>r = p("a photograph of an astronaut riding a horse")

Install
先にStable Diffusion(scripts/txt2img.py)をインストール
$ cd ~/work/stable-diffusion
$ source venv/bin/activate
(venv) $ python

空き領域 132.32GB

stable-diffusion on M1 MacBook Air 2020





GPU
M1 MacBook Air に stable diffusion をインストールしてみた | 林檎コンピュータ

最初は遅い
M1 MacBook Air 2020 に Stable Diffusion と Real-ESRGAN をインストール AI絵師がローカルマシンで使い放題に | Digital Life Innovator

M1 MacBook Air. 16G
流行りのStable DiffusionをM1 MacBook Airで遊んでみた | paraches lifestyle lab.

M1 (M2) MacBookのStable Diffusion環境セットアップでエラー | 合同会社ペンギン




Jupyter notebook
実行して31分49秒で512x512の画像を1枚生成できた
25分くらいで生成できそう
9% 1/11 [02:14<22:27, 134.78s/it]
【diffusers0.10.0】M1/M2 MacのローカルにStableDiffusion環境を構築する

Install
$ git config --global credential.helper
$ huggingface-cli login
(ログインしないとjupyter notebookで実行した時にエラー)
先にInvoke AIをインストール
$ eval "$(pyenv init -)" && pyenv activate anaconda3-2022.05
(anaconda3-2022.05) $ conda create --name sdf python=3.10
(anaconda3-2022.05) $ conda activate sdf
(sdf) (anaconda3-2022.05) $ pip3 install --pre torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/nightly/cpu
(sdf) (anaconda3-2022.05) $ pip3 install --pre torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/nightly/cpu -U
(sdf) (anaconda3-2022.05) $ pip install transformers
(sdf) (anaconda3-2022.05) $ pip install --upgrade diffusers
(sdf) (anaconda3-2022.05) $ pip install jupyter
(sdf) (anaconda3-2022.05) $ conda deactivate
(anaconda3-2022.05) $ conda activate sdf
(sdf) (anaconda3-2022.05) $ jupyter notebook
初回実行時はダウンロードに時間がかかる
27% 3/11 [07:28<20:22, 152.85s/it] 28分くらい

Jupyter notebook
img2imgで画像を生成できた。3枚生成。
【Diffusers】MacでStableDiffusionのImg2Imgのpython環境を整える



2022/9/2追加
画像生成AI「Stable Diffusion」をM1搭載Macのローカル上で実行する方法 - GIGAZINE



sd-v1.5
v1-5-pruned-emaonly.ckpt
v1-5-pruned-emaonly.ckpt · runwayml/stable-diffusion-v1-5 at main
Stable Diffusion 1.5vの利用方法 | ジコログ

sd-vae
https://twitter.com/forasteran/status/1583473900335554562?s=12&t=9K38_hVqkqGg561I-ukqvw

sd-v1-4.ckpt
CompVis/stable-diffusion-v-1-4-original · Hugging Face


waifu-diffusion (wd-v1-3-full.ckpt)
wd-v1-3-full.ckpt · hakurei/waifu-diffusion-v1-3 at main

waifu-diffusion (wd-v1-2-full-ema.ckpt) Original PyTorch Model Download Link
hakurei/waifu-diffusion · Hugging Face


TrinArtキャラクターモデル(trinart_characters_it4_v1.ckpt)
trinart_characters_it4_v1.ckpt · naclbit/trinart_characters_19.2m_stable_diffusion_v1 at main
【Stable Diffusion】TrinArtキャラクターモデルを使う方法 | ジコログ
https://gadgelaun.com/?p=40691

trinart (trinart_stable_diffusion_epoch3.ckpt)
https://huggingface.co/naclbit/trinart_stable_diffusion/blob/main/trinart_stable_diffusion_epoch3.ckpt




M1 MacBook ProでStable Diffusionを動かすまでのメモ

Stable Diffusion を M2 Macのpipenvで動かす

stable-diffusion on M1 MacBook Air 2020

オフィシャルのデモサイト
Stable Diffusion 2-1 - a Hugging Face Space by stabilityai


環境セットアップ
($ brew install anaconda miniconda rust cmake protobuf openblas python git-lfs
(System Dataが30.33GBになった。9GBくらい増えた?

ユーザー登録
右上のSign upから登録
CompVis/stable-diffusion-v-1-4-original · Hugging Face



$ conda init zsh
~/.zshrcの末尾にいろいろ追加される

$ cd stable-diffusion
$ conda env create -f environment-mac.yaml
(2回目以降は、$ conda env update -f environment-mac.yaml)

protobuf==3.20.1
M1 MacでStable Deffusionを動かそうとして詰まった

$ conda install pytorch torchvision torchaudio -c pytorch-nightly

functional.pyを変更
$ vi /opt/homebrew/Caskroom/miniconda/base/envs/ldm/lib/python3.9/site-packages/torch/nn/functional.py
M1 MacBook ProでStable Diffusionを動かすまでのメモ

再度実行すると、outputsフォルダに画像が生成された
$ time python scripts/txt2img.py --prompt "a photograph of an astronaut riding a horse" --plms --n_samples 1 --n_iter 1




Diffusers (CompVis/ldm-text2im-large-256)
$ mkdir work && cd work
$ python3 -m venv my_diffusers
$ source my_diffusers/bin/activate
(my_diffusers) $ pip install --upgrade diffusers
(my_diffusers) $ pip3 install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113
(my_diffusers) $ pip install transformers
(my_diffusers) $ vi test.py して、"sample"を0に変更 最先端の機械学習モデルを利用できるDiffusersのインストール | ジコログ
(my_diffusers) $ python3 test.py
49秒で256x256のpng画像が生成された
100%. 20/20 [00:49<00:00, 2.48s/it]

最先端の機械学習モデルを利用できるDiffusersのインストール | ジコログ

Models - Hugging Face




openvinoのインストールが必要なときは、
$ pip install openvino-arm
Apple silicon (M1) prebuilt openvino with arm plugin wheels released on PyPI · Issue #11554 · openvinotoolkit/openvino · GitHub


OpenCV (cv2)のインストールが必要なときは、
$ pip install opencv-python-headless
M1のMACでOpenCV導入に苦労した話 #Python - Qiita


$ pip install tensorflow-macosを実行すると、公式のStable Diffusionをローカルで実行 (diffusers)が動かなくなる
2022-11-04 10:38:36.257393: F tensorflow/c/experimental/stream_executor/stream_executor.cc:808] Non-OK-status: stream_executor::MultiPlatformManager::RegisterPlatform( std::move(cplatform)) status: INTERNAL: platform is already registered with name: "METAL"
TensorFlowのインストールが必要なときは、
$ pip install tensorflow-macos
M1 MacにTensorFlowをインストールする #Mac - Qiita
アンインストールすると動くようになった
$ pip uninstall tensorflow-macos











sd-gui
GitHub - FahimF/sd-gui: Clean and simple Stable Diffusion GUI for macOS, Windows, and Linux
$ python app.py で起動
試しに1 stepで3分39秒
100% 1/1 [03:39<00:00, 219.77s/it]
Time taken: 258.78071999549866s
画面サイズ変更であまり小さくできず画面に収まらない

日刊 画像生成AI (2022年10月3日)|やまかず







世界変革の前夜は思ったより静か|深津 貴之 (fladdict)

StableDiffusionを使った新しいAI作画サービスを作りました。日本語でOK。無料です|shi3z


Memeplex.app

https://twitter.com/hashtag/memeplex


https://samezi-but.com/toaru-ai-no-prompt-generater-for-midjourney/

やばすぎるAI画像生成サービス「Stable Diffusion」始まる。 【簡単解説 & 応用 & Prompt付生成事例集】|やまかず

23億枚もの画像で構成された画像生成AI「Stable Diffusion」のデータセットのうち1200万枚がどこから入手した画像かを調査した結果が公開される - GIGAZINE

Pythonライブラリ(AI generated Art):stable diffusion|KIYO

Stable Diffusion でうまくいった prompt を載せていくやつ|6uclz1

M1 Macbook Proローカル環境でstable diffusionを動かすときのハマリポイント #Mac - Qiita

画像生成AI(MidjourneyとStableDiffusion)の生成結果をキーワードから一覧化するページ(Twitter検索) #Python - Qiita

(11/25更新)StableDiffusionの個人的まとめ&遊ぶときに参考にしたサイトたち #AI - Qiita

Prompt 呪文詠唱 完全入門 ~ Midjourney , StableDiffusion ~

Lexica

https://note.com/diff_momot/n/n527e73dc73b6

Stable Diffusion を Google Colabで実行する際に便利なコード

無料の「画像生成AIサービス」を国内最速で作ったら、クラウド料金が1日10万円になりかけた話【Stable Diffusion】 | Business Insider Japan

22/09/18 Stable Diffusionの追加トレーニングについてのサーベイ | Built with Notion

22/09/19 画面解像度の検証 | Built with Notion

「この画像っぽい○○を生成」を画像生成AI「Stable Diffusion」で実現する技術「Textual Inversion」が登場 - GIGAZINE

素敵なAI作品 | Built with Notion

創薬ちゃん生成チャレンジ参加記(kawaii作成のための指針2)

https://twitter.com/search?q=%23stablediffusionkawaii&src=typed_query

【随時更新】AIお絵描きで遊ぼう(Memeplex、StableDiffusion)|msonrm

絵下手マンがWaifu Diffusionでファンアートを描く方法 #StableDiffusion - Qiita


https://www.stable-diffusion.click

https://twitter.com/hashtag/StableDiffusionSandbox



Deforum Diffusion と Waifu Diffusion によるAI動画生成|npaka

Waifu Diffusion で効率的に画像を生成する

Run Stable Diffusion on Your M1 Mac’s GPU | Hacker News

22/09/26 Stable Diffusion追加学習の記録 | Built with Notion

image検索
https://avyn.com

https://laion-aesthetic.datasette.io/laion-aesthetic-6pls/images

【AIお絵かき】Stable Diffusion―この子「Pixiv」知ってるの?できること、できないこと #AI - Qiita

Sampling methodとStepの比較
StableDiffusionのサンプリング法 #DeepLearning - Qiita

画像AIの研究 | Built with Notion

Stable Diffusion プロンプトの組み立て方 | Knowledge Swimmer メモ

The Ai Art - AI, Art, and everything in between

openvino(CPU)版で Waifu Diffusion を実行する(Windows, Linux)

番茶(50代Youtuber)|note

画像生成AI「Stable Diffusion」でいろいろ特化した使えるモデルデータいろいろまとめ - GIGAZINE

創薬ちゃん生成チャレンジ参加記

強力な呪文見つけた!?AIイラストレーションでいろいろ遊んでみた。|あかり

Midjourney/Stable Diffusionの書 〜呪文詠唱して画像生成〜

コート・ジャケット | Built with Notion

https://twitter.com/forasteran/status/1579434714225836034

Stable Diffusion を基礎から理解したい人向け論文攻略ガイド【無料記事】

【日本語訳】元素法典 第1巻 #NovelAI #元素法典|さいぴ

StableDiffusionとNovelAIで要素強調するためのプロンプト仕様の違い|ウチダマサトシ



Stable UI - Create images with Stable Diffusion

AI Horde

日刊 画像生成AI (2022年10月19日)|やまかず

ゼロから始めるPaperspace Gradient【Google Colab代替サービス】 #Python - Qiita

Stable DiffusionをSingularityで動かす #初心者 - Qiita

KerasCV を使って 2行で StableDiffusion を使う #StableDiffusion - Qiita




GitHub - apple/ml-stable-diffusion: Stable Diffusion with Core ML on Apple Silicon

$ cd ~/github/ml-stable-diffusion
$ conda activate coreml_stable_diffusion
$ mkdir output2
(coreml_stable_diffusion) $ python -m python_coreml_stable_diffusion.pipeline --prompt "a photo of an astronaut riding a horse on mars" -i output -o output2 --compute-unit ALL --seed 93

mlpackageの読み込み時間 + 44秒
100% 51/51 [00:44<00:00, 1.15it/s]


Swift で Core ML を使って Stable Diffusion に画像生成させる #Swift - Qiita

【Swift】Core ML Stable Diffusionを使ってみた(Apple Silicon) | thwork


ElixirのライブラリBumblebeeのStable DiffusionをM1 Macで試してみた #Elixir - Qiita


IBM Cloud GPUサーバー環境で Stable Diffusionの画像変換(image2image) を実行 #Python - Qiita


エンドポイントを削除しないと課金され続けるので注意
機械学習初学者が Amazon SageMaker で Stable Diffusion を動かしてみた #機械学習 - Qiita

【初心者向け】Amazon SageMakerではじめる機械学習 #SageMaker | DevelopersIO

https://vivinko.com/inoue/blog/2018/11/04/092159.html

エンドポイントを削除したあと、1時間後くらいにコスト概要とAWS Billing Dashboardを確認。課金され続けていないか
https://us-east-1.console.aws.amazon.com/cost-management/home?region=us-east-1#/dashboard

https://us-east-1.console.aws.amazon.com/billing/home#/

画像生成を実行して5秒くらいで画像を表示できた。
SageMaker エンドポイント作成 を実行した時に*のままで完了にならなかったが、画像生成できた。

過去または現在の AWS の支払いを表示する | AWS re:Post





Google ColabでStable Diffusionによる画像生成 - MBP(はてな)