先日StableDiffusionの記事を書いてから、
幾つかGPUの使用量が余す限り画像を生成したりしています。
最近だとゲームのアイテムアイコンみたいなのできないかなーということで
武器類の画像とか、アイテム類の画像を生成することが多いです。
ただ、twitterを見ているとですね…
やはり二次元イラストをどれだけきれいに出力できるかを試している人が多く
それを見ていると、自分もまあまあそういったものを出してみたくてですね…
要はかわいい女の子のイラストを生成したくなったんだよ!
というわけでね、今回はWaifuDiffusionというモノを使ってみました。
WaifuDiffusionとは?
8月末に襲ったStableDiffusionの公開から、怒涛の画像生成AI派生が出来ましたが、
その中の一つ、「アニメや二次元イラスト、漫画のようなテイストの画像」
を生成することに重きを置いた学習モデルらしいです。
StableDiffusionと全く違った画像生成AIではなく、
StableDiffusionと同じ仕組みですが、「用いる学習データが違う」んですね。
これを見ると、
一番左がStableDiffusion、
真ん中が前バージョンのWaifudiffusion、
一番右が最新v1.3のWaifudiffusionとなっていて、
かなり二次元の女の子イラストになっていることが見て取れますね!
え、v1.4ももう出るんですか?
StableDiffusionもv1.5とかになってるし、早すぎて追いつけないッス
GoogleColaboratoryで
WaifuDiffusionを使ってみる
StableDiffusionを動かせるリッチな環境は手元にないので(貧乏)、
今回もGoogleColaboratoryで動かしてみたいと思います。
下記のページでノートブックも公開されているので
それを使ってもいいと思います。
導入に関しては、StableDiffusionとほぼ同じで、
学習モデルを指定する所の記述を変えるだけでいいみたいです。
簡単ですね。優しい!
ということで、前回記事。
GoogleColaboratoryでまずStableDiffusionを動かす場合はここを参照。
https://steeledge2.blogspot.com/2022/10/googlecolaboratestablediffusion.html
んで、
上の記事の「GoogleColaborate:準備と学習データのダウンロード」の部分ですね。
pipelineの指定の部分で学習モデルデータやバージョンを指定しているので、
この部分を差し替えます。
※修正前
pipe_txt2img = StableDiffusionPipeline.from_pretrained(
"CompVis/stable-diffusion-v1-4",
revision="fp16",
torch_dtype=torch.float16,
use_auth_token=YOUR_TOKEN
).to("cuda")
※修正後
pipe_txt2img = StableDiffusionPipeline.from_pretrained(
"hakurei/waifu-diffusion",
torch_dtype=torch.float16,
use_auth_token=YOUR_TOKEN
).to("cuda")
これだけです!
幾つか画像を生成してみる
というわけでね、これでWaifuDiffusionを使えるようになったので、
自分の所でもかわいい女の子の画像を生成できるようになったわけです。
そういうことなので、幾つか生成してみました。
以前Twitterであげたものも入ってます。
まだ勘どころが分かっているわけではないので、
Twitterでアップされている他の方と比べるとまだまだですね。
自分用にpromptのメモも取っておいた方がよいかもなあ。
女騎士ちゃん |
「Short hair, Silver hair」という感じで銀の短髪 |
手の部分はかなり難しく、Img2Imgでめちゃガチャした(マシなほう) |
「Chinese dress」でチャイナ服を試してみる |
お狐巫女様 |
鳥居の背景が出たり出なかったり |
お狐巫女ちゃんその2 |
「jiangshi」と指定するとキョンシー服になるみたい。かわいい。 |
キョンシー服その2 |
「watercolor」を入れて水彩風にしてみる |
「watercolor」「ink painting」等混ぜ混ぜ |
ヘッドフォンとか |
男の子も書いてみた |
0 件のコメント:
コメントを投稿