こんにちは、中島です。
今回は、stable diffusionを今更ながら使ってみたので記事にしていこうと思います。
モデルについて
まずは、モデルについての簡単な説明です。
今回は、stable-diffusionの1.5を使っていきます。
https://huggingface.co/runwayml/stable-diffusion-v1-5モデルは、画像を大量に機械に学習させて出来上がる生成するためのメインとなる部分です。
何を学習させたかによって、
建築物の生成を得意としたモデル
アジア人の生成を得意としたモデル
アニメのような画像を生成するのが得意なモデルとさまざまです。
特定のイラストレーターさんの画像を大量に学習させると
似たような画像は生成されますが、著作権の違反になる可能性もあるので、注意が必要です。
また、作成されたモデルについても、ライセンスをきちんと確認しましょう。
実際に生成してみた
文字(プロンプト)を入力し、それに合った画像を出力してもらいます。
機械への命令文の文字は、英語にはなりますがサンプルとして残していきます。
文字(プロンプト)
"""
cat, airbrush style, Last winter days, cute kawaii cat, snowy, soft lighting, detailed face, concept art, digital painting, epic, 32k, intricate details, sharp focus, trending on artstation., kids story book style, muted colors, watercolor style
"""
プロンプトを入力することで、パソコンのスペックにもよりますが下記のような猫の画像が1~2秒で作成されます。
イラストとしては、十分なものだと思います。
次にリアルなハンバーガーを作っていきたいと思います。
文字(プロンプト)
"""
a burger with the potato, patty, egg and lettuce leaf, background black
"""
ぱっと見では、美味しそうなハンバーガーができています。
しかし、よくみてみると、上のバンズがチーズのように溶けているようになっていたり
ゴマが少し中に浮いているようにも見えます。
ChatGPTでもDALL-Eという画像生成Alがあり、
metaも最近imagineという画像の生成Alを発表しました。
身近なところでも、Instagramのチャットで生成Alが簡単に利用できるようになったり
iPhoneを使っている人は、ステッカーという写真から人物だけや食べ物だけを切り抜く機能があったりと、生活にAlが浸透して行っています。
触ってみると思った以上に楽しいと思うので、みなさんも色々とAlを触ってみてはいかがでしょうか!!!!