はてなキーワード: Danbooruとは
danbooruの画像を学習データとして使った是非ばかり話題なんだが、
具体的に誰の絵を学習させたら、あのNovelAIの絵になるんだ?
ごちゃまぜに学習したら、あのNovelAI絵になるんだって主張は、個人的にはあまり信じられない。
Diffusion modelが意図的にノイズを加えたのと比較して学習していくのだから、元の絵はあるはずだ。
danbooruの画像をそれなりに見てみたが、NovelAIの絵と同じ絵柄の人を見つけられずにいる。
リサーチ力はないので、調べきれてないのはそうなのだが・・・。
最近のキャラクターもわからないのだけど、動画の立ち絵とかエンドカードなどが描ければいいなと思っている。
danbooruタグを探してもエロばかりで、普通のはそれほどバリエーションがないように見える。
検索しても出てこないので、自分で調べるしかないかと重い、danbooruのタグ一覧を探した。
deepdanbooruの中にあるtags.txtに、danbooruのタグ一覧があるが、9000くらい拾っているっぽい。
danbooru全体だと20万ほどあるらしいが、数が少ないのはどうせ出て来ないのだろうから、いいのか。
他のタグ一覧も探しているが、案外集まってないように見える。
インスタのいい感じのファッションタグ一覧とかどこかないのか。
描いて出てきた画像に、色々不満があるのだが、どうすりゃ直るのかがわからん。
衣装もそれなりに毎回異なるのを出して欲しい。
なんかエロ界隈はロリで突き進んでいるみたいだが、自分からすると胴の長さとか、そういうのが調整できなくてモヤモヤする。
胸の大きさは単語があるのですぐ調整できるが、くびれやら肩やらも調整出来ん。
衣装の名前を英語で探してきても、出て来ないとめんどくさくなってくるし、ボタンやリボンの位置を示す表現なんて無理だろ
1発目は自然言語でもいいが、もう少し位置動かして書き直してくれないですかねAI様ってなる。
image2imageで直せるだろっていうが、実際やると境界が変だったりであまり使いたくない。てか単語入力が結局必要で出てこない。
「(作者自ら無料で公開している)Pixivの作品を作者に無断で機械学習に利用する」のと、「(FANBOX等の有料作品が無断転載されている)Danbooruの作品を作者に無断で機械学習に利用する」のは、本質的に全く異なるはずだが、なんでそこが議論されないんだろう。
※中国国内でも、リーク版は駄目だとか、NovelAI自体がdanbooruで学習しているから絵師の仕事を奪うので反対という意見は出ている
NovelAIの良いプロンプトを集めたドキュメント「元素法典」が日本でも話題になった。
NovelAIを使ったことがない人にはわからないだろうが、NovelAIのリーク版のプロンプトとなっている。
真面目にNovelAI本家を使っている人が、「元素法典」をコピペしても上手く動かず、有志が作ったリーク版からNovelAI本家へのプロンプト変換サイトで変換しなければならない。
個人的には、タグはdanbooruタグを並べていて特に変わったものではないし、手当たり次第に強調しているように見えて好きになれないし、
Prompt Editing/Mixingを使った事例がないことなどから、あまり好きではないが、Twitterなどの反応を見る限り、需要はある。
でだ、本家NovelAIにはできず、リーク版で出来ることがある。
例えば下は、AUTOMATIC1111の機能を使っており、リーク版でしか動作しない。
試す人は18禁画像が出るので注意だ。乳首が透けている絵が出る。
[lewd:assertive:0.3] small sweat [nude::0.8] [nipple::0.95] 1girl with disheveled messy atmosphere cherry bloom hair sitting in white [((((translucent)))):((transparent)):0.9] [hoodie:trench coat :0.4] liquid crystal [((transparent)) sailor dress::0.7] indoor inside [vehicle], [downpour raining:0.5] [nightclub:cyberpunk:0.3] city, public crowd
Negative prompt: ugly, fat, obese, chubby, (((deformed))), [blurry], bad anatomy, disfigured, poorly drawn face, mutation, mutated, (extra_limb), (ugly), (poorly drawn hands fingers), messy drawing, morbid, mutilated, tranny, trans, trannsexual, [out of frame], (bad proportions), (poorly drawn body), (poorly drawn legs), worst quality, low quality, normal quality, text, censored, gown, latex, pencil
引用元:https://gist.github.com/crosstyan/f912612f4c26e298feec4a2924c41d99
簡単に説明すると、途中まで乳首で描画し、途中で止めるので、衣装が透けているという描画になる。
「::0.8」というのが、全ステップの8割まで描画して、そこで描画を止めるという意味だ。
[nude::0.8] [nipple::0.95] で8割までヌードを描画し、9割5分まで乳首を描画し、残りで衣装を描画することで、衣装の透け感を出す。
衣装が透けているというのは、danbooruにもあるが、上記を考案した人はよほど乳首を描画したかったのだろう。
他に [nightclub:cyberpunk:0.3]いうのも、AUTOMATIC1111の機能だ。
最初にナイトクラブで3割、残りをサイバーパンクで描画という意味になる。
なにより、リーク版はタダで、本家は有料でしかも英語ってことで、バズるのが中国より日本の方が早かったが、リーク版が出てからは一瞬だった。
マンパワーが違う。
NovelAIサイトのUIを丸々パクったサイトが出来、「元素法典」が生まれている。
日本の話題になっているTwitterも中国語にすぐ翻訳され、ノウハウ取り込まれているのが現状だ。
日本人はもうSNSで投げっぱなしという感じだが、中国の場合、記事やドキュメントを書いてまとめること、
↓
3日間は審査期間
Helpページを翻訳して読んだ限り、こういう流れで上手い絵だけ見れるギャラリーを目指してるもよう
ただ削除といっても検索オプションつければ見れちゃうので、実質は非表示になるだけ
(密林で例えると中華メーカーの商品を人力で判断→非表示にされて、デフォだとエレ○ムなどの有名メーカーしか出ない的な仕様。これならむしろやってほしい)
見る専なら実に便利だろうけど、好きで描いた絵を勝手に審査されて「ヘタクソ!」ってこき下ろされるの腹立つ…腹立たない?
いやまあ自分が下手なのは否定しないですが、他の削除された投稿見てみると下手どころかすっごい上手い人ばっかなんすよね
それでページ上部に「○人が気に入りませんでした」って表示があって、うわーこいつら何様だよと…
頭の中でこいつ下手だなと思うのは勝手だけどこんな公開処刑みたいなさ〜〜
あれは「特定の単語から想起される画像を(これの他にも)欲しい」「この画像が意味するデータを全部欲しい(作者名と公開元URL含む)」というわりと根源的な欲求を満たすためのサービスだから
あれの本質はタグだ(タグ付けが正しいかとかタグの統廃合の議論をアホみたいに延々やってる)
画像に目視人力で100個くらいタグ付けしてまとめておくと物凄く便利だということを知らしめてしまった罪はある
仮に全ての*booru(Danbooruだけじゃなくてジャンルごとにナントカbooruが山のように存在してて、それぞれ人気だったり不人気だったりする)がなくなったとしても画像URLにタグ付けするサービスとして数時間で復活するんじゃないかと思う
なお画像がサーバに保存されてるという点で転載サイトなのは現行現状間違いないのでそこを議論する気は特にないw
PixivがAI絵対応の初期方向性公開したという記事でいまだに(いまさら!)Danbooru潰せという意見があったのを見て書いた
ノクターンノベルズ(小説家になろうの18禁版)のランキングを「AI挿絵つき」が席巻し始めている。
今現在のランキングだと、1位と12位が全話AI挿絵付きの長編。
1位と12位はNovel AIを使用していると明記されている。
7位は明記がないがおそらくNovel AIと見ている。
AIイラストは、複数の生成イラスト間で同じ登場人物を同じように描くことが苦手だと思っていたが、それもできている。
これは、3Dカスタム少女やコイカツなどで3Dモデルを作っており、それに任意のポーズをとらせて出力した画像をimg2img機能で挿絵に変えているという考察があった。
元々、3Dカスタム少女による画像を挿絵として入れている作者はノクターンノベルズに存在したので、仮説として十分ありうる。
また、上記小説の説明を見ると、AI生成イラストに対してさらにレタッチを行っているらしい。
3Dモデルから直接出力した画像に比べて平面的に描かれるAI生成画像は、修正もしやすいだろう。
3DモデルとAIイラストの良いところを組み合わせる方法で正直賢い。
面白いのはこれがノクターンノベルズでのみ起きていて、小説家になろうでは同様の波が来ていないことだ。
これについては以前読んだこのエッセイを思い出した。
https://ncode.syosetu.com/n3823bk/2/
読み手は、それまでの人生の蓄積のなかから、既知のイメージの張り合わせを行って、描写の内容を“想像”する。
想像の難易度は、小さくて単純なものだと簡単だが、大きくて複雑なものになると極めて難しくなる。
読み手の想像そのままのプレーンな状態に、書き手の指定が、あまりに多く入りすぎると、想像に注釈がたくさん付いた状態になって、すなわち読み手の処理能力に負荷をかける。そうすると想像したものの保持自体が難しくなってくる。
もちろんネット小説と言えども小説を読んでいる人間ならば、この「想像の保持」ができないわけはない。
ただエロ小説の場合それでシコるという巨大なタスクがある関係上、「想像の保持」にかかるコストは通常の小説と異なり、少なければ少ないほどいい。
また、エロ小説というのは読者に「読者の頭の中で作られた映像」をエロく感じさせる必要があるので、本来独特の難しさがあった。
シチュエーションや感情描写やセリフにより、ある意味情念に訴えるような間接的なエロが要求された。
Noval AIは本家Stable Diffusionと違って18禁画像の生成が封じられていないので、その点非常に都合が良い。
Novel AIは、投稿画像のほとんどがpixivやエロゲCGなどの無断転載で占められる悪名高き画像投稿サイトdanbooruから学習したモデルだという。
あそこはコンプラめちゃくちゃな癖にタグ付けが異様に充実していることは以前に書いた。
https://anond.hatelabo.jp/20171022133100
本当に無制限ってことはないだろうが、見かけ上の上限は無い。少なくとも50個くらいは付けられる。
キャラ名や作品名、シチュや場所を表す言葉から、キャラの人数、ポーズ、付けている装飾品の隅々までほとんどタグ化されている。
これは確かにAIにとって非常に学習しやすい環境だろうと思う。
あとネット上のあらゆる画像ではなくpixivやエロゲCGがほとんどなので、小説の挿絵的なものにはかなり向いていそうだ。
ノクターンの多くの小説に挿絵がつくようになるのも良い変化だと感じる。
ただ、それをもたらしているものが違法転載から学習したNovel AIだというのがどうしてもいただけない。
今後、法規制、クリーンなモデルの発展、Novel AIの相当多くの日本人への膾炙からの既成事実化などがあれば、自分も使うかもしれない。
せっかく課金したのにユーザが増えまくっているのか滅茶苦茶重くなっていて最悪。
だから流出したモデルを使ってローカルでNAIの環境を構築する。
ネットには情報もだいぶ転がってるけど陳腐化した情報があまりに多いため増田にまとめることにした。
もしかしたらこの記事もすでに陳腐化しているかもしれないが…単純に間違ってたらトラバで教えてほしい。
もちろん自己責任。この記事を見て導入した結果何かあっても増田は何も保証しない。
英語がわかる人はこっちを見た方が早いと思う。今は導入RTAができるくらい導入は楽になっている。
https://rentry.org/nai-speedrun
VRAMが2GB以上あるNVIDIA製のグラフィックボードがあればローカル環境を構築できる。
GPUの世代はGTX700シリーズ以降。なので一昔前のミドル級ボードでも動作するらしい。
IntelのオンボードGPUでも実行する方法があるらしい(stable_diffusion.openvino)が今回は割愛する。自分で探してね。
その他の推奨環境は以下の通り。
対応OS:Windows7以上(と言うがM1Macでも動作する方法があるとかなんとか)
メインメモリ:16GB以上(VRAMもたくさん必要だが起動時にメインメモリも大量に食う。WebUI起動時にタスクマネージャを見ているとよくわかる)
スマホしか持ってないような人やこういうのがよくわからない人はNovelAIを使った方が良いと思う。
今は重いけど、きっとそのうちみんな飽きてサーバも軽くなるかもしれないし。
(追記)NovelAIがリソースを確保してサーバが軽くなったからリスクを背負ってまで導入しなくても良いかも
(追記)Pythonは当然3系。最新の奴を入れれば問題無い。
導入方法はいちいち書かないけど、「python --version」や「git -v」で
正常にバージョン情報が出る(パスがきちんと通っている)ことはちゃんと確認しよう。
Stable Diffusion web UIはStable Diffusionやそれをベースとした画像生成AIを利用するためのフロントエンド。
その中でも特に開発が活発でデファクトスタンダードとなっているのがAUTOMATIC1111版だ。
導入したい適当なディレクトリに対してPowerShellなどで
「git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git」
なお、AUTOMATIC1111版は数時間単位でコミットが行われるから
定期的に「git pull origin master」で更新しよう。
クライアントはqBitTorrentが一番楽だと思う。
ここにはさすがにmagnetリンクは書かないから各自ググって欲しい。
結構誤解されがちなことだが流出データ50GBを全部ダウンロードする必要は無い。
必要なファイルはanimefull-final-prunedディレクトリの中身とanimevae.ptだから5GBちょっとくらいなんじゃないかな。
もし余裕があるならmoduleディレクトリの中身もダウンロードすればいいけど、ぶっちゃけ必要無いんじゃないか?
まずはanimefull-final-prunedの中身のファイルをリネーム。
「model.ckpt」を「animefinal-full-pruned.ckpt」のようなわかりやすい名前にして、
「animevae.pt」を例えば「animefinal-full-pruned.vae.pt」のような拡張子以外は同じファイル名にする。
WebUI起動フォルダ配下の\models\Stable-diffusionにリネームしたファイルを移動させれば配置はOK。
ちなみにmoduleディレクトリの中身は\models\hypernetworksに移動させて使う。
それらのファイルを設定で適用させると画風が結構変わるがNovelAI再現とは関係無いみたいだ。
(追記)moduleディレクトリの中身の.ptファイルはhypernetworksという技術によって画風などを学習したものらしい。
すでに複数のイラストレーターの画風を学習したptファイルが作成されており議論を呼んでいる。
自分のグラボのVRAMが4GB未満の場合は「set COMMANDLINE_ARGS=」の後に
4GB未満の場合は「--medvram」、2GB未満の場合は「--lowvram」とパラメータを追加しておこう。
自分の持ってるグラボのVRAMがわからないときはGPU-Zなどで調べよう。
またGTX1600系固有のバグ(単色の画像が出力される)があるらしいので
その場合は「--no-half-vae」もしくは「--no-half」や「--precision full」とパラメータを追加。
ちなみにパラメータに「--xformers」を追加してxformersを導入・使用すると
消費VRAMが減って画像生成処理時間も短縮されるので是非導入しよう。
画像からdanbooruのタグをAIで調査するdeepdanbooruを利用する場合は「--deepdanbooru」を追加。
のようになる。
ターミナルやPowerShellなどでwebui-user.batを起動しwebUIの初期導入と起動を行う。
過去には手動でCUDA等を導入する必要があったが、現在はこの初期導入でだいたいの導入が行われる。
ずいぶん楽にはなったがその分初期導入の時間は結構長い。10分~20分くらいかかるかもしれない。
途中で導入処理がエラーで止まってしまった場合は管理者権限で実行するなどして対応して欲しい。
起動ができたらSettingで以下の設定を変更してNovelAIに近づける。
Stop At last layers of CLIP modelを2に、
Eta noise seed deltaを31337にする。
これで設定は完了!
設定を合わせて完全にNovelAIと同じ内容になったのかを確認するテストがある。
出力結果から海外じゃHallo Asuka Testなんて呼ばれている。
これは初期SEEDをはじめとする設定内容が完全に一致していれば同じ出力結果を得られる仕組みを利用している。
プロンプトの内容:masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
ネガティブプロンプトの内容:lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
https://i.imgur.com/Bfl5qJB.jpg
なお、このテストはAUTOMATIC1111のバージョンやxformersの適用状態によっては微妙に違う画像が出力されることがあるらしい。
xformersを適用させている増田の環境だと確かに二つ並べると間違い探しレベルの違いがあった。
「Booru tag autocompletion for A1111」を導入すればNovelAIのように自動でdanbooruのタグを保管してくれる。
画像生成AIモデルはStable DiffusionがOSSのため派生が結構多い。
自前で追加学習もできるため自前で学習した追加AIモデルを4chanのような掲示板などで共有する人もいるらしい。
しかしそのようなモデルの中にウィルスのような悪意のある動作を行うものもあるらしい。
FBIがペドフィリアを一網打尽にするためにIPアドレスなどの個人情報を抜き出す動作を行うロリ特化AIモデルを掲示板で配布していて
しかもそれには本物の児童ポルノが教師データとして使われている…などという都市伝説的な話が今界隈を賑わせている。
この辺は昔からいる初音ミクでJ-POPは滅ぶとかノストラダムスの大予言で世界は滅ぶみたいな、自分が何者にもなれなかった時代が終わってほしいって終末思想の一種じゃね
第1世代の「オタク」の多くは趣味の探究と生産を旨としていた、ただ消費するだけの存在ではなかった、とよく言われるが
世代が下るごとに、オタクの中にも「特定ジャンルのエンタメの消費者」的な意識を持つ人々が明らかに増えていっている。
そしてStable DiffusionやnovelAI Diffusionの登場で、この「趣味者としてのオタク」と「消費者としてのオタク」の断層が決定的になったと思う。
「消費者としてのオタク」は、たとえば自分好みの絵師のタッチで自分好みの絵が出力できればうれしいから、AI技術の進展を歓迎するだろう
「趣味者としてのオタク」は、たとえばDanbooruを利用した機械学習はオリジナル絵師の努力や技術を剽窃し貶めるものだと警鐘を鳴らすだろう
実際、Danbooruからの学習を批判する声に対して、オタク界隈からもちらほらと
「技術の進歩を否定する」「老害」といった物言いが見受けられるようになってきた。
折しも最近の『2.5次元の誘惑』では、「オタクは愛で生産と消費を結びつける」「みんな仲間」という(美しい)話をやっているが
テクノロジーの進歩によって、消費系のオタクが、消費したい対象を人間の生産者に頼らずとも無限に供給してもらえるようになったら
イラストAIに関する話題のブコメを見てると「技術の推進は止められないんだから、それをお気持ちで悪として止めようとするべきではない」って意見が支配的だけど、これがけっこうブクマカの身勝手さや独善性が分かりやすい形で出ていて凄く気持ち悪い。
いや、別にそういうアナーキーな技術至上主義的発想それ自体が悪いと言っているわけではないんだ(賛否はあるだろうが)。
ただ、「技術でできるようになったことは法で止められていないなら何をやっても良いし、新たな法規制も積極的に行うべきではない」という思想を是とするなら、それ相応のなんでもありは覚悟するべきだと思う。
例えば、女性の盗撮画像がネットにアップされた時、それを見て「エッッッッ!!」「ここの尻のラインが抜ける」「こんな娘が身近にいたらセクハラしちゃいそう」と気持ち悪いコメントを並べ立てても、それはなんら罪がなく、もちろんモラル的にも責められる言われのない行為ではないということになるのではないか?
NovelAIは最初にDanbooruに転載した奴は悪でも、そこから学習したAIを使う利用者は悪ではない。だとするならば、盗撮画像で抜いたと報告し合っても、悪いのは盗撮してそれをネットに上げたクズ野郎だけであって、その写真にのエッチさんについて熱く語り合うことはなんら悪ではないハズだ。
盗撮被害者の女性は盗撮されたことに加えさらに追い打ちで傷付くかもしれないが、自分の絵柄を真似されて今までの努力を簡単に模倣されてしまったことで傷付く絵師のお気持ちに配慮する必要がないというのなら、その女性のお気持ちを考える必要も当然ないだろう。
また、上のたとえは最初の放流者が悪でも、拡散する技術にも、拡散されたものを好き勝手使う利用者にも罪はないという点がよく似ているので出したが、もっと広く「技術でできるならなんでもあり」という考えを押し進めたらどうなるだろうか?
現代のネット技術でできるけど、好ましくないという人もいる行為を適当にあげてみよう。
・フリマ系やオークション系のサイトで転売するのも、システム上、できちゃうんだからOKだ。
・Twitterで加害性のあるデマを自分から発信するのは悪だろうが、それをリツイートという機能で拡散する行為はなんら悪ではない。
・子供も見ているSNSでエロ絵を垂れ流しても、運営がBANしないなら垂れ流しは容認されているのだから当然問題はない。
……まあ、これらは思いつきで上げたので、理屈で以てアリ・ナシを線引きすることはできると思う。
ただ、ブコメでイラストAIマンセーしている人たちの発言を見ても、理屈に基づく線引きをちゃんと己の内に持っているように感じられる人はあまりいない。
わりとはてブ民はこういう一般的に見てモラルに反すると言えるっぽいネットの使い方に対して厳しい印象があったが、なぜかイラストAIの話題だと「技術でできるんだから文句言うな!」って意見ばかりで、そこが非常に気持ち悪く感じた。
※おまけ