(function() {function signalGooglefcPresent() {if (!window.frames['googlefcPresent']) {if (document.body) {const iframe = document.createElement('iframe'); iframe.style = 'width: 0; height: 0; border: none; z-index: -1000; left: -1000px; top: -1000px;'; iframe.style.display = 'none'; iframe.name = 'googlefcPresent'; document.body.appendChild(iframe);} else {setTimeout(signalGooglefcPresent, 0);}}}signalGooglefcPresent();})();

Tagged: Stable Diffusion web UI

AI生成イラストがおもしろい

ま、面白いからといって、これで何かやろうとか考えていないのだが。

ローカル環境で数秒

当Blogでも以前にAI生成イラストをローカル環境で実施する事に挑戦した記事を書いたが、その時はプログラムが完走せずに試す事ができなかった。

だが、その後の調査で「Git」と呼ばれるStable Diffusionをクローン化するプログラムが足りない事が判明したので、そちらをネットで探してインストールしたところ、無事「Stable Diffusion UI」が完走、ローカル環境でプログラムが稼働する事を確認した。
実行さえできれば何とかなりそうな感じなのだが…「Stable Diffusion UI」は使用するモデルデータが必要になるのだが、これをネットでいろいろと配布しているサイトから集め、複数のモデルを準備したのだが、今回、改めてAnythingというモデルをインストールしてみた。
というのは、Anythingのバージョンが3から5へとアップデートされていたからだ。
Anythingは、そのバージョンによって初出が異なるという話があり、著作権の問題でいろいろ理解しておかねばならないところがあるのだが、どうも3系と5系は初出が同じという事のようなので、今回改めてAnything-v5.0を入れてみる事にした。
拡張子が最近主流の「.safetensors」となっているモデルデータだが、基本モデルデータを保存する場所は同じである。
で試しに出力してみたのだが…何か1枚あたりの画像生成時間がとんでもなく速いんだけど…。
時間にして2秒程度。
画像の大きさは512×512なので、そう大きいものではないし、プロンプトも比較的短めのものではあるのだが、それでも1枚2~3秒で出力できるというのは、ちょっと驚きだった。

なぜ速いのか?

いろいろ調べて見たら、この速さの秘密はモデルデータの拡張子が「.safetensors」に変わった、新しいタイプのものだかららしい。
もともとPythonのプログラムを実行する上でのセキュリティを考えた先に「.safetensors」というフォーマットに変わったらしいのだが、その処理速度も以前のものから比べて格段に速くなっているらしい。
「anything-v3.0」系のモデルも、現在は「.safetensors」のモデルデータに変わっているので、こちらに切替えた方がいいだろう。
私はAI生成イラストを行うには完全に後発の部類にはいるので、既に確立された手順の元で今まで蓄積されてきた恩恵をそのまま受ける形でAIイラストを生成する事になるが、後発の強みはこうした進化した形でそのシステムを導入できる事にある。
ま、それだけに仕組みや記述方式を今から入念に理解していく必要はあるし、今までの経緯を知らない事で、ちょっとした設定を知らないなんて事も多々ある。
早い時期に始めた方が良いのか、それとも後発組が良いのかは、その都度変わる話かもしれないが、私としては先人の知恵を拝借しながら、まずはその足跡を辿っていって見たいと思っている。

Continue reading…

AI生成イラストをローカルで

Stable Diffusion web UIを使ってみたが…。

オンラインだといろいろ課題が…

ChatGPTというものが話題を集めてからというもの、何かとAIが騒がれるようになり、TwitterなどでAI生成されたイラストなどがツイートされるようになった。
つまり、それだけAIを使用するという事が手軽になり、あらゆるところで利用されはじめたという事なわけだが、そのほとんどの使われ方は、オンラインでそのサービスを受けつつ、アウトプットされたものを活用するというものだった。
私も実際ChatGPTのサイトにアカウントを登録し、無料の範囲で利用したりした事もあるが、その正確性や機密の関係から、仕事で利用する時はあくまでも文章の参考例を作成させたり、より詳細なアプリの使い方を確認したりするのにしか使っていない。
便利だったのは、社内の新人教育の時に、教育した内容をテストする際、そのテスト問題とその答えを自動で作成できたということ。この手のことは自分で考えることもできるが、案外と面倒なので、AIを活用してテスト問題を作成するというのは、時短になって便利だった。
こうしたテキストベースのAI活用は、ChatGPTのオンラインでの利用でも問題ないのだが、ちょっと興味を持ったのがAIによるイラスト生成である。
画が描けない私からすると、AIにテキストで命令を与えて画を描かせることができるというのはとても魅力的に感じた。
当Blogでも一度Stable Diffusionのサイトを利用してみた記事を書いたが、あくまでもオンラインでの利用としたものだった。

だが、これを利用して思ったのは、オンラインでは限界があるということ。
そもそもサーバのGPUを活用して出力しているところもあるので、無料で使用しつづけるにはデータ量にどうしても制限が出てきてしまう。
無料で使い続けるには、そもそも出力するイラストの大きさなども大きくはできないし、制限がとても多い。
となると、どうしてもやってみたくなるのが、AI活用をオフライン、つまりローカルで行うということ。
折角、GPUとしてGeForce RTX 4070Tiを搭載しているので、そのパワーを活かしつつ、ローカルでAI生成イラストを楽しめればそれに越した事はない。
ということで、ローカルで実行できる環境を作ってみたいとやってみた。

Stable Diffusion web UI

ローカルでStable Diffusionのイラスト生成を行うには「Stable Diffusion web UI」というアプリケーションをインストールする。
インストールはGithubにてオープンソースで公開されている。

ここからダウンロードして実行したい場所に解凍することになるのだが、問題はこれ以外にモデルデータが必要だということ。
この辺りはStable Diffusion web UIを説明している他サイトを見て戴く方がよいだろう。
実行さえできれば何とかなりそうな感じなのだが…ただ、そうしたStable Diffusion web UIを紹介しているサイトにおいて、時々情報が欠落していることがある。
このアプリケーションはpythonというプログラムで動作するので、pythonの実行環境をOSにインストールしておく必要があるのだが、そのことが“あたりまえすぎて”書かれていないことがあるのである。
なので、まずpythonをインストールすることから始める必要があるのだが、注意しなければならないことは、インストール時にパスを通しておく必要があるということと、インストールするバージョンに気をつける必要があると言うこと。
パスを通すというのは、pythonのインストールを解説しているサイトで確認してもらいたい。そんなに難しい話ではないので、pythonのインストールを説明しているサイトに書かれているので手順を間違えずにインストールすればいい。
問題はpythonのバージョンである。
Stable Diffusion web UIは特定のpythonのバージョンでないと実行できないことがある。
なのでpythonをインストールしてStable Diffusion web UIを実行してみて、エラーが出るようであれば、そのエラーの中にpythonのバージョンが異なるということが書かれていて、実行可能なバージョンも記載があるので、今インストールしたpythonをアンインストールして、指定のバージョンのpythonをインストールすれば良いだろう。

Continue reading…

Desktop Version | Switch To Mobile Version