【Stable Diffusion】手書きのラフからAI画像生成で線画を抽出して着色してみた【ControlNet】

AI画像生成

色塗りが苦手です。
絵を描くこと自体は好きなので、「誰か代わりに色塗ってくれーい」とずっと思っていました。


以前、CLIP STUDIO PAINTで自動彩色という機能ができた時、めちゃくちゃ期待していたのですが、境界が曖昧なうすぼんやりした彩色にしかならない上に、指定するために置いた色すら採用されないという思惑とはかけ離れた結果になったので使っていませんでした。

それ以降、諦めて久しいですが、どうやらStable Diffusionで自動彩色してくれるらしい、という噂を聞きつけて実験してみることに。

AI画像生成に利用するラフをCLIP STUDIOで制作

CLIP STUDIO PAINTでラフを作成。
というか、もともとアイコン用に正方形でラクガキしたものを再利用することにしました。
普通にペン入れできる程度に線がきれいめな絵をチョイス。

Stable Diffusionで線画を抽出

モデルの設定

使用するモデルは「ambientmix」です。
アニメ塗りすることが多いので、自分の絵に近い結果が得られることを期待して選びました。

txt2imgの設定

下記1点を変更。他はデフォルト。

  • CFG Scale : 6

ControlNetの設定

下記2点を変更。他はデフォルト。

  • Preprocessor : lineart_anime
  • Model : lineart_anime

線画の出力結果

結果は下図の通り。

悪くないのですが、アニメ塗りの清書(クリンナップ)には程遠いかんじ。
もうちょっと1本線で輪郭を作ってほしかったのですが、それにはラフが粗すぎる模様。
何度か試してみましたが、線自体が整うことはなかったので、一番元絵のニュアンスが残っている線画を採用。

txt2imgに呪文を記載してAI画像生成で着色

ポジティブプロンプト

  • 黒い髪
  • 赤い目
  • 赤いリボン
  • 制服
  • 学校

ネガティブプロンプト

  • EasyNegativeV2

導入済みの「EasyNegativeV2」を入れています。

txt2imgの出力結果

結果は下図の通り。

113番めの彼女です。よろしくお願いします。
生成過程でできた画像を利用して、何度か再生成しています。

崩れているとはいえ、背景もいい感じに生成してくれてます。
生成を繰り返すほど、京アニ系のタッチに近づいたように感じました。

色指定を修正してさらにAI画像生成で着色

ポジティブプロンプト

下記の項目を「chatGPT-4」のプラグイン「Photorealistic」を利用して、変換してもらいました。
「Midjourney」用のプラグインのようですが、用途は同じなのでデフォルト出力のまま使っています。

  • 紫の髪
  • 紫の目
  • 白い歯
  • 白いシャツ
  • 赤いリボン

ネガティブプロンプト

  • EasyNegativeV2

上述の通りです。

txt2imgの出力結果

結果は下図の通り。

全体的な描写は溶けた感がありますが、ぱっと見いいかんじのライティングが施されているのでこの絵を最終としました。

まとめ

このままでは完成とは言えないので手直しするとなると、全体的レイヤーなしの状態でニュアンスを似せながら手を入れる必要がありますね。そうなると、結局自分でペン入れ&彩色した方が良さそうではあります。

ただ、まるで自分の絵柄を残したまま彩色してくれているような生成結果になったのは驚きでした。
ぱっと見は大満足なので、本当にあと一歩!

ラフからペン入れ&彩色が可能、とは言い難い

まだまだ使いこなせていないので、プロンプトや設定次第で結果が変わるかも、という期待はしています。もっと良いやり方があれば教えていただければ幸いです!

タイトルとURLをコピーしました