オミクロン株対応2価ワクチンの接種に行ってきました。オミクロン株BA.1のやつです。これで4回目の接種だ。
かなりワクチンを筋肉下にぷちゅっと勢いよく注射していたので、一挙に筋肉が拡張したんじゃないかと思いましたよ。ぷちゅって。微妙に肩が痛いし。段々肩が上がらなくなってきています。
今のところそれ以外の副反応は出てないっぽいです。
グラボも設定したし、色々と実験したいので stable diffusion を構築しようとしていたのですが、なかなかうまくいかないんですよね。
stable diffusion の本サイトからgit clone してきて、テキストから画像を生成するAI「Stable Diffusion」をWindowsにインストールしてみたの記事を参考にインストールを試みたのですが、どうしてもインストール途中でエラーを吐いてしまいます。かなり難物です。
他の方法が無いかと調べていたら、WEB UIで制御する Stable Diffusion web UI というのが batchをたたくだけでインストールできるみたいなので、それを試してみました。無駄を省いたStable Diffusion Web UIの導入方法。多機能なWindowsローカルGUI環境
記事では純正のPythonを使っていましたが、ここでは本家のStable Diffusionをインストールしようとしたときに使ったAnacondaを使ってみます。
githubよりソースをcloneしてきてから、インストールしてあるAnacondaのcmdプロンプトからバッチを実行。しばし待つうちにインストールが完了しました。
実行にはモデルファイルが必要で、Hugging Faceというサイトにユーザ登録してckptファイルをダウンロードしてきてStable Diffusion Web UIのあるフォルダに配置する必要があります。純正のsd-v1-4.ckptと、いわゆる萌え絵用のWaifu Diffusionに使うwd-v1-3-full.ckptを取ってきました。
とりあえずのお試しなのでWaifuの方でひとこと miku の呪文を入れて生成されたものの例が以下です。
変なところもありますが、顔とかはかなり自然ですね。(ディテールはやっぱり変ですが。) 他にも数枚できましたが、カスでした ^^;;
一応注意ですが、ある程度の性能のグラボが無いと1ミリも動きません。というか多分インストールそのものがこけるはずです。
Stable Diffusion は Meta社が開発した機械学習ライブラリのPyTorchというものが使われています。(説明は PyTorchチュートリアル(日本語翻訳版) にあります。) テンソル演算とかをばりばりやってくれるみたいです。その PyTorchをビルドするために、NVDIAの CUDA Toolkit という GPU のプログラミングのためのライブラリを使ってるようです。今回は PyTorchをコンパイルする必要はないので、CUDAはインストールする必要ないのですが、純正の Stable Diffusionのインストールのトライの段階でとりあえずインストールしてみました。
うちはRTX3060を積んでいますが、テンソル演算用の素子も載っているので、それなりに動いてくれるみたいです。