はてなキーワード: Lowとは
https://twitter.com/kadokawahonyaku/status/1731097324615860583
角川トランス本のツイートでもこの大学生40%がやたらみんなの琴線に触れるっぽいので調べてみた。
https://www.cspicenter.com/p/diverse-and-divided-a-political-demography
Liberal arts colleges are the least politically diverse. Many have almost no conservatives, and thus very low viewpoint diversity. But they have high sexual diversity, at nearly 40 percent LGBT.
というわけで、米国のリベラルアーツカレッジでは40%がLGBT、というのがソースらしい。
一方で、大学全体だと、
23%となるらしい。
だから角川のツイートは不正確で、大学生の23%がLGBTQ、リベラルアーツカレッジの40%がLGBTというべきだね。
ただ、リベラルアーツカレッジではなぜLGBT率が高まるのか、この差は気になるよね。
Low fantasy refers to the inclusion of magical or fantasy elements within the environment and life of the real world, rather than specified a virtual world in video game. did you make sense?
low fantasy is characterized by being set on Earth, the primary or real world, or a rational and familiar fictional world with the inclusion of magical elements
をどう読んだら「見知った仮想世界」になるんだよ
何読んどんだか知らんけど
By contrast, low fantasy is characterized by being set on Earth, the primary or real world, or a rational and familiar fictional world with the inclusion of magical elements.
Buss, Kathleen; Karnowski, Lee (2000). Reading and Writing Literary Genres. International Reading Assoc. p. 114. ISBN 978-0-87207-257-2.
Perry, Phyllis Jean (2003). Teaching Fantasy Novels. Libraries Unlimited. p. vi. ISBN 978-1-56308-987-9.
Gamble, Nikki; Yates, Sally (2008). Exploring Children's Literature. SAGE Publications Ltd. pp. 102–103. ISBN 978-1-4129-3013-0.
C.W. Sullivan has a slightly more complex definition in "High Fantasy", chapter 24 of the International Companion Encyclopedia of Children's Literature by Peter Hunt and Sheila G. Bannister Ray (Routledge, 1996 and 2004), chapter 24.
ゲーム用ではなく計算用途(HashCat、SD/NAI、llama.cpp etc…)のまとめ
Linux(もっと言えばArchLinux)で利用する(=できるスキルがある)ことを想定、購入手段は最低限AmazonとヤフオクとAliExpressが使えるものとする
増田の仕様用途はllama.cppがメインなのでそれにフォーカス。
モデル | VRAM容量 |
7B q4_0/q3_K_M | 6GB |
7B q4_K_M | 8GB |
7B q4_K_M low-vram | 6GB |
13B q3_K_S | 8GB |
【メリット】
【デメリット】
【メリット】
【デメリット】
【メリット】
【デメリット】
【メリット】
【デメリット】
【追記】
夜中の勢いで書いたけど、やはり有線にしろった人多いよな
ワイヤレス一個で完結したいだけなんだがそういう要望はニッチすぎなのか
PUGBがでて大量の音ゲーがでてスポーツ中継をスマホで見られる時代になってもだいぶ経つのに、いまだ多くの人は有線で繋ぐしか満足行く体験はできないのか
---
音ゲーとか映画とか動画編集とかする人の多くが諦めているのが遅延問題
もはやスマホでこれらが完結する時代にあって、なぜかイヤホンは音質に力を入れるだけで遅延問題を真剣に対応したがらない
基本的にBluetoothでつなぐのだがそのコーデックによって差がある
現在主流の低遅延モデルはaptxAdaptiveという規格なんだけど、これが低遅延という割に全然遅れて声が聞こえてくる
というか、それよりも前にaptxLawLatencyというより低遅延をうたう規格があるにもかかわらず、そちらは近年あまり採用されていない
もともとaptxというコーデックがあって、それを低遅延にしたのがLL。高音質にしたのがHD。そのHDを低遅延にしたのがAdaptiveらしい
LLの遅延は基本40ms未満。これは30フレーム動画なら1フレーム強という感じ。これはまあ許容できる。
いっぽうのAdaptiveは50~80ms。これは30フレーム動画なら2~3フレーム
この差は結構でかくい上にトランスミッターによってはさらに遅延が生じる
ようはaptxLLくらいがギリギリ許容できる範囲なのに、それよりもレイテンシがある規格がはびこっていてワイヤレスイヤホンで聞くと動画と音がずれまくる
もちろんメーカーは理解しているんだろうけどあまり改善する気がないのはちょっとやばいよね
多分作ってる人たちは高音質さえ保ててればいいと思ってるんだろう
だからよりレイテンシの低い規格があるのに、新しいというだけでAdaptiveを使ってるんだろう
ちなみになんでこんな怒ってるかというと、10年使ってるヘッドホンが壊れかけているのでワイヤレスにしようと思ったら、あまりに求めているものがなかったからなんだ
ワイヤレスで低遅延モデル、という単純な要件を満たすものが驚くほど少ない
ガジェット系のさいちょう氏が勧めていたゼンハイザーのものがいいとは思うけど、眼鏡かけているので合わない可能性のあるヘッドホンは買いづらい
ではイヤホンにしようとするとこっちも数が少なすぎる、というかほぼ店じまいのような有様
Bluetoothオーディオの規格そのものは、大きく進化はしていませんでした。もともとは通話用としてスタートしたBluetoothオーディオですが、HSPというプロトコルから始まり、そして通話用としてHFPが登場しました。一方音楽用はA2DPが規定され、1.0、1.2、1.3とアップデートしてきましたが、基本的な部分は変わっていません。
Bluetoothのコアスペックに目を向けると、こちらは着実に進化してきています。バージョン4.0でLow Energyに対応しました。このLE技術をオーディオにも使えるのではないか……とWorking Group内でもずっと議論をしてきたのです
ここにもあるけど、Bluetoothの規格やイヤホンの進化に対して、データの運搬を担う箱としてのコーデック自体の進化が停滞しすぎなんだよな
完全ワイヤレスイヤホンが早く出すぎという意見もあるだろうけど、単純に業界が舐め腐ってるのが悪い
で、ようやく出始めたのがLEAudioというものらしいが、これはSonyのLinkBudsと専用スマホでしかいまだに実現していない
【レビュー】新規格『LE Audio』をLinkBuds SとXperia 1 IVでブロードキャスト共有接続に挑戦 低遅延伝送もテスト
おい、嘘だろ、今の時点での最善手がまだこのレベルかよ
確かに遅延は解消しているけど機器が少なすぎて熱心なオーディオマニアくらいしか注目していないし、もっといえばそのオーディオマニアは遅延なんてどうでもいい連中だぞ?
ヒップホップ?ラップ?は悪党の詩とStraight Outta Compotonの2曲しか聴いた事がなかった。
ギャングスタ系って言うのかね。ブラント巻いたりブン殴ったりの。
STUSとPUNPEEの「夜を使いはたして」を初めて聴いた。めっちゃ良かった。
イントロ長えな……と思うけど、メロウなトラックが始まると「お?」って思った。
内容は夜通し遊びまわっちゃうぜというだけのものなんだけど、表現がいちいち情緒的。
「夜を使いはたして」だもんな。まず曲名が良すぎる。
思春期に真夜中にフラフラ歩き回るのが好きだったし。というかと今でも全然好き。
ブンブン 唸るベースがブームになる けどお茶の間じゃLOWもカット
でもいつかのテレビ小僧もでっかいスピーカーの前で本物のRawを知り一人前になる
この曲一番のパンチラインなのかな。
クラブとか全然興味無かったけどちょっと行ってみたくなった。早く一人前になりてえ。
その前んとこの
作ろうとしないで作った曲を武器に日々戦うよ さあ繰り出そう
人気のない夜の先々に案とヒントは眠ってる
も良い。
どこで韻踏んでのとかはよく分からんけど、ネットの受け売りの日本語ラップはダサいみたいな認識が改まった。
いくつもの夜を使いはたしてこの曲が生まれたのなら、この曲に感動できたのなら、刹那的な時間も磨り減った寿命も無駄にはならなかったんじゃないかって思えたね。
aquatofana ガラスの崖(平時に出世するのは男性だが、危機的なときだけ女性に声が掛かり、そういうときしかチャンスを与えられない女性はチャレンジするが当然上手く行かず「女性は仕事できない」事例にされる)現象かな。
https://b.hatena.ne.jp/entry/4736369796585370949/comment/aquatofana
https://b.hatena.ne.jp/entry/s/www.techno-edge.net/article/2023/05/12/1280.html
2006年の研究では、法学部の学生はリスクの高い事件を男性の主席弁護士よりも女性の主席弁護士に依頼したがることを示した[7] 。
しかし、他の研究においては、ガラスの崖現象の存在の確認に成功した例はない。
最高経営責任者(CEO)の任命直前の企業業績に関する2007年の研究では、女性経営者が不安定なリーダーの立場に選ばれる可能性は男性よりも低いと示されている[8]。
We find that corporate performance preceding CEO appointments tends to favor females, implying that females (males) are appointed to the CEO position largely at times when the firm is in relatively better (worse) financial health.
Disaggregating the data by appointments in up versus down markets, at high-risk versus low-risk firms, and by calendar time yield similar conclusions.
There appears to be no glass cliff facing female CEOs at US firms.
Are Female Executives Over-represented in Precarious Leadership Positions?
前回紹介したAnythingv3を投稿者が削除したり関係の無い第三者がAnythingv4や4.5を勝手にリリースしたり…(しかもマージモデルだとか)
増田も追いかけきれていないが追いかけてるぶんは自分のためにここでまとめておく。
NAIリークモデルやAnythingv3に関しては前回を参照。
Instagramで投稿されている画像を学習させたモデルの総称。
実在の人物画像を学習しているため人物の体型をより正確に描画させることができる。
cafe-instagramやzeipher-f222など複数存在し、Basil_Mixのようなアジア人に特化したものも存在する。
U-NETの階層ごとにマージを行う階層マージというマージ手法が考案されたからだ。
これにより実写モデルをベースに見た目をアニメ風にマージするという方法が採れるようになった。
5chなんU(なんJもしくはなんGのパートスレ向けの板でVIPに対するパー速のような板)の住民が作成した階層マージモデル。
現在はBasil_MixとAnythingv3を階層マージしている。
このモデルには派生版があり、nsfw版やhard版は上記マージモデル(通称base)にNAIリークモデルやGape60を混ぜたものらしい。
Gapeについては前回の記事を参照。
NAIのように長いネガティブプロンプトを設定しなくても綺麗な絵を出すことができる。
リアルよりになったAbyssOrangeMixを漫画アニメ向けにファインチューンしたモデル。
Abyss→深界七層(メイドインアビス)→7th_layerということらしい。
アニメ寄りなA、漫画寄りなB、より漫画寄りで破綻しやすいCの三種類がある。
Anything系のような中華で好まれる独特の厚塗りではなく比較的パキっとした塗りの絵が出るので個人的には一番好き。
他にもいろんなマージモデルがあるが、だいたいがNAIリークモデルやAnythingv3と実写系モデルを混ぜたりそれにファインチューンをかけたりしたモデルだ。
Anythingv3もNAIリークモデルがベースだからなんだかんだいってNovelAIが作ったモデルはまさに特異点的な存在なのだろう。
Low-rank Adaptation for Fast Text-to-Image Diffusion Fine-tuningの略で、
Dreamboothの簡易版のようなものとされているが実はDBとは似て非なる技術らしい。
DBよりも短い時間かつ省メモリの環境で学習が可能で、生成されるファイルも30~200MB程度とHypernetworkとそこまで変わらず一定以上のクォリティで追加学習を行えるようになった。
何よりもVRAMが8GB程度のグラボでも学習できるようになったのが大きい。
特定の作者の画像を学習させることでその画風を再現するためのLoRA。
従来はHypernetworkで行っていた。
特定のものやこと(例:ふたなり)を学習させるためのLoRA。
NovelAIやその派生モデルでは困難だった種付けプレスや断面図などの構図の再現が可能となった。
従来は主にDBで行っておりモデルの配布に苦労していたがLoRAによって配布が非常に楽になった。
「士郎正宗風の絵柄でふたなりのナンジャモ」という画像を生成することもできる。
またLoRAはHypernetworkのようにモデルを選ばないが、NAIリークモデルを学習のベースにすると破綻しづらいらしい。
というか今流行っているモデルはほぼNAIリークモデルの血筋が入っているので馴染みやすいんだろう。
同社が運営しているHuggingFace HUBはユーザ登録すれば無料で無限にAI学習モデル(1ファイル2GB~7GB)をアップロードできる上回線も異常に高速であるため重宝されている。
モデルマージなどでストレージが圧迫されているローカル民にとっては救世主のような存在。
資金源は謎だが、2022年の5月に2億ドル調達しているのでストレージを無尽蔵に増やせるらしい。知らんけど。
HuggingFaceが考案したモデルファイルのファイル形式。
実行コードを含んでいることもあり従来のckptモデルはしょっちゅうトロイの誤検出が起きていたが、
SAFETENSOR形式のモデルは実行コードを含まないため安全であるとされる。
ユーロは常にドイツにとっては割安(他国、特に南欧にとっては割高)に設定されており、金融環境は緩和的(他国、特に南欧にとっては緊縮的)です。それがドイツの製造業の繁栄と高い輸出競争力を支えています。
周辺諸国はドイツの輸出に対して対抗措置を設けようとしても、EUの制度上それができません。これらの国の苦境は、労働者が自由に国境を渡ることによって自助努力で解消する設計になっていますが、それがドイツの労働力供給源になっています。
ドイツのように周辺諸国の窮乏化で経済成長するモデルは誉められたものではないと思います。
(参考)
"How the euro helped Germany avoid becoming Japan" Matin Wolf, Financial Times, OCTOBER 30 2019
"What would have happened if the German economy had not been sheltered by the eurozone? The Deutschemark would surely have appreciated hugely, this time in a low-inflation world. That would have pushed German domestic inflation below zero, damaged the profitability and performance of exports and inflicted losses on German financial institutions, with their huge foreign assets. It would have made it impossible to preserve strongly positive nominal interest rates and probably impossible to avoid persistent fiscal deficits, too. In brief, the eurozone protected Germany from becoming another Japan. Germans should be thankful for what the euro has given them, praise Mario Draghi, outgoing ECB president, for his brave decisions to save the system from calamity and hope his successor Christine Lagarde will follow suit."
https://www.ft.com/content/04f48e1e-f97f-11e9-98fd-4d6c20050229
一条工務店のことに言及する増田やブクマカがちらほらいるので、一条工務店で建てた俺がなんとなく語る。
一条工務店は家を建てることに興味がなければそもそも認知してないっていう人のほうが多いメーカーだが、注文住宅の年間着工棟数でトップクラスのメーカーである。
特徴は大量生産のメーカーでありながら断熱・気密性能の高い家を建てていること。
主力商品のi-smartの場合、壁の断熱材は一般的に使われるグラスウールよりも性能の高いウレタンフォームを使用し、厚みも増し増し。
窓もLow-eアルゴンガス封入のトリプルガラス樹脂サッシが標準という徹底ぶり。
気密面では気密のとりやすいツーバイ構造を採用している(壁の断熱材の厚みを増やすために2x4ではなく2x6にしている)
もちろん全棟気密測定を実施。
それでいてお値段は有名大手メーカよりも若干安いくらいに抑えられている。
(断熱や気密の数値は公式ページでもみてください)
快適性では高い断熱気密に標準の全館床暖房をあわせることで家中ほぼ同じ温度を実現できる。
風呂にすら床暖ある。
ただしあくまで大手メーカーの中では飛び抜けた性能であって、中小の工務店でさらに高いスペックを安価に実現しているところはある。
まあ中小工務店はちゃんと実現してくれるところを探すだけの知識が必要になるのと、建てる地域によってはそもそもそんな工務店無いなんてこともあるので、全国に一定のスペックを担保して建てられるというのが強みであるとも思う。
また、性能的には素晴らしいものの、このコストパフォーマンスを生み出すために犠牲にしている部分もあって
コストを下げるために仕様の選択肢を限定していて、どの家も似たような見た目になる
全館床暖房いらないとか一種換気いらないという融通は効かない(というか無くしても減額されない)
などなど人によっては選択肢から外す理由になる要素もそれなりにある。
なのでこれらネガが気にならない人にマッチするというものになっている。
増田やブクマカも断熱についてはかなり意識するようになってきているので、家を建てるときの参考になればと思います。
あと大手だとスウェーデンハウスも断熱気密すごいので気になるなら調べてみるとよろし。
お値段すごいけど。
※中国国内でも、リーク版は駄目だとか、NovelAI自体がdanbooruで学習しているから絵師の仕事を奪うので反対という意見は出ている
NovelAIの良いプロンプトを集めたドキュメント「元素法典」が日本でも話題になった。
NovelAIを使ったことがない人にはわからないだろうが、NovelAIのリーク版のプロンプトとなっている。
真面目にNovelAI本家を使っている人が、「元素法典」をコピペしても上手く動かず、有志が作ったリーク版からNovelAI本家へのプロンプト変換サイトで変換しなければならない。
個人的には、タグはdanbooruタグを並べていて特に変わったものではないし、手当たり次第に強調しているように見えて好きになれないし、
Prompt Editing/Mixingを使った事例がないことなどから、あまり好きではないが、Twitterなどの反応を見る限り、需要はある。
でだ、本家NovelAIにはできず、リーク版で出来ることがある。
例えば下は、AUTOMATIC1111の機能を使っており、リーク版でしか動作しない。
試す人は18禁画像が出るので注意だ。乳首が透けている絵が出る。
[lewd:assertive:0.3] small sweat [nude::0.8] [nipple::0.95] 1girl with disheveled messy atmosphere cherry bloom hair sitting in white [((((translucent)))):((transparent)):0.9] [hoodie:trench coat :0.4] liquid crystal [((transparent)) sailor dress::0.7] indoor inside [vehicle], [downpour raining:0.5] [nightclub:cyberpunk:0.3] city, public crowd
Negative prompt: ugly, fat, obese, chubby, (((deformed))), [blurry], bad anatomy, disfigured, poorly drawn face, mutation, mutated, (extra_limb), (ugly), (poorly drawn hands fingers), messy drawing, morbid, mutilated, tranny, trans, trannsexual, [out of frame], (bad proportions), (poorly drawn body), (poorly drawn legs), worst quality, low quality, normal quality, text, censored, gown, latex, pencil
引用元:https://gist.github.com/crosstyan/f912612f4c26e298feec4a2924c41d99
簡単に説明すると、途中まで乳首で描画し、途中で止めるので、衣装が透けているという描画になる。
「::0.8」というのが、全ステップの8割まで描画して、そこで描画を止めるという意味だ。
[nude::0.8] [nipple::0.95] で8割までヌードを描画し、9割5分まで乳首を描画し、残りで衣装を描画することで、衣装の透け感を出す。
衣装が透けているというのは、danbooruにもあるが、上記を考案した人はよほど乳首を描画したかったのだろう。
他に [nightclub:cyberpunk:0.3]いうのも、AUTOMATIC1111の機能だ。
最初にナイトクラブで3割、残りをサイバーパンクで描画という意味になる。
なにより、リーク版はタダで、本家は有料でしかも英語ってことで、バズるのが中国より日本の方が早かったが、リーク版が出てからは一瞬だった。
マンパワーが違う。
NovelAIサイトのUIを丸々パクったサイトが出来、「元素法典」が生まれている。
日本の話題になっているTwitterも中国語にすぐ翻訳され、ノウハウ取り込まれているのが現状だ。
日本人はもうSNSで投げっぱなしという感じだが、中国の場合、記事やドキュメントを書いてまとめること、
せっかく課金したのにユーザが増えまくっているのか滅茶苦茶重くなっていて最悪。
だから流出したモデルを使ってローカルでNAIの環境を構築する。
ネットには情報もだいぶ転がってるけど陳腐化した情報があまりに多いため増田にまとめることにした。
もしかしたらこの記事もすでに陳腐化しているかもしれないが…単純に間違ってたらトラバで教えてほしい。
もちろん自己責任。この記事を見て導入した結果何かあっても増田は何も保証しない。
英語がわかる人はこっちを見た方が早いと思う。今は導入RTAができるくらい導入は楽になっている。
https://rentry.org/nai-speedrun
VRAMが2GB以上あるNVIDIA製のグラフィックボードがあればローカル環境を構築できる。
GPUの世代はGTX700シリーズ以降。なので一昔前のミドル級ボードでも動作するらしい。
IntelのオンボードGPUでも実行する方法があるらしい(stable_diffusion.openvino)が今回は割愛する。自分で探してね。
その他の推奨環境は以下の通り。
対応OS:Windows7以上(と言うがM1Macでも動作する方法があるとかなんとか)
メインメモリ:16GB以上(VRAMもたくさん必要だが起動時にメインメモリも大量に食う。WebUI起動時にタスクマネージャを見ているとよくわかる)
スマホしか持ってないような人やこういうのがよくわからない人はNovelAIを使った方が良いと思う。
今は重いけど、きっとそのうちみんな飽きてサーバも軽くなるかもしれないし。
(追記)NovelAIがリソースを確保してサーバが軽くなったからリスクを背負ってまで導入しなくても良いかも
(追記)Pythonは当然3系。最新の奴を入れれば問題無い。
導入方法はいちいち書かないけど、「python --version」や「git -v」で
正常にバージョン情報が出る(パスがきちんと通っている)ことはちゃんと確認しよう。
Stable Diffusion web UIはStable Diffusionやそれをベースとした画像生成AIを利用するためのフロントエンド。
その中でも特に開発が活発でデファクトスタンダードとなっているのがAUTOMATIC1111版だ。
導入したい適当なディレクトリに対してPowerShellなどで
「git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git」
なお、AUTOMATIC1111版は数時間単位でコミットが行われるから
定期的に「git pull origin master」で更新しよう。
クライアントはqBitTorrentが一番楽だと思う。
ここにはさすがにmagnetリンクは書かないから各自ググって欲しい。
結構誤解されがちなことだが流出データ50GBを全部ダウンロードする必要は無い。
必要なファイルはanimefull-final-prunedディレクトリの中身とanimevae.ptだから5GBちょっとくらいなんじゃないかな。
もし余裕があるならmoduleディレクトリの中身もダウンロードすればいいけど、ぶっちゃけ必要無いんじゃないか?
まずはanimefull-final-prunedの中身のファイルをリネーム。
「model.ckpt」を「animefinal-full-pruned.ckpt」のようなわかりやすい名前にして、
「animevae.pt」を例えば「animefinal-full-pruned.vae.pt」のような拡張子以外は同じファイル名にする。
WebUI起動フォルダ配下の\models\Stable-diffusionにリネームしたファイルを移動させれば配置はOK。
ちなみにmoduleディレクトリの中身は\models\hypernetworksに移動させて使う。
それらのファイルを設定で適用させると画風が結構変わるがNovelAI再現とは関係無いみたいだ。
(追記)moduleディレクトリの中身の.ptファイルはhypernetworksという技術によって画風などを学習したものらしい。
すでに複数のイラストレーターの画風を学習したptファイルが作成されており議論を呼んでいる。
自分のグラボのVRAMが4GB未満の場合は「set COMMANDLINE_ARGS=」の後に
4GB未満の場合は「--medvram」、2GB未満の場合は「--lowvram」とパラメータを追加しておこう。
自分の持ってるグラボのVRAMがわからないときはGPU-Zなどで調べよう。
またGTX1600系固有のバグ(単色の画像が出力される)があるらしいので
その場合は「--no-half-vae」もしくは「--no-half」や「--precision full」とパラメータを追加。
ちなみにパラメータに「--xformers」を追加してxformersを導入・使用すると
消費VRAMが減って画像生成処理時間も短縮されるので是非導入しよう。
画像からdanbooruのタグをAIで調査するdeepdanbooruを利用する場合は「--deepdanbooru」を追加。
のようになる。
ターミナルやPowerShellなどでwebui-user.batを起動しwebUIの初期導入と起動を行う。
過去には手動でCUDA等を導入する必要があったが、現在はこの初期導入でだいたいの導入が行われる。
ずいぶん楽にはなったがその分初期導入の時間は結構長い。10分~20分くらいかかるかもしれない。
途中で導入処理がエラーで止まってしまった場合は管理者権限で実行するなどして対応して欲しい。
起動ができたらSettingで以下の設定を変更してNovelAIに近づける。
Stop At last layers of CLIP modelを2に、
Eta noise seed deltaを31337にする。
これで設定は完了!
設定を合わせて完全にNovelAIと同じ内容になったのかを確認するテストがある。
出力結果から海外じゃHallo Asuka Testなんて呼ばれている。
これは初期SEEDをはじめとする設定内容が完全に一致していれば同じ出力結果を得られる仕組みを利用している。
プロンプトの内容:masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
ネガティブプロンプトの内容:lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
https://i.imgur.com/Bfl5qJB.jpg
なお、このテストはAUTOMATIC1111のバージョンやxformersの適用状態によっては微妙に違う画像が出力されることがあるらしい。
xformersを適用させている増田の環境だと確かに二つ並べると間違い探しレベルの違いがあった。
「Booru tag autocompletion for A1111」を導入すればNovelAIのように自動でdanbooruのタグを保管してくれる。
画像生成AIモデルはStable DiffusionがOSSのため派生が結構多い。
自前で追加学習もできるため自前で学習した追加AIモデルを4chanのような掲示板などで共有する人もいるらしい。
しかしそのようなモデルの中にウィルスのような悪意のある動作を行うものもあるらしい。
FBIがペドフィリアを一網打尽にするためにIPアドレスなどの個人情報を抜き出す動作を行うロリ特化AIモデルを掲示板で配布していて
しかもそれには本物の児童ポルノが教師データとして使われている…などという都市伝説的な話が今界隈を賑わせている。
脳みそ足らないやつは黙っとけ
キミはアホな逆張りしてないで万が一の際はちゃんと自分自身が生活保護の手続きが取れそうかだけ心配してなさい
どこの国でも知能や精神に問題がある人が必要な手続きが取れず福祉から漏れてるぞ
同シェルターが設立されたのは2001年12月。岡田武夫大司教が、カトリック新聞に「野宿生活者の緊急一時避難場所―対応遅れによる死を防ぐため―」という記事で寄付を呼び掛けたことがきっかけだった
https://www.christiantoday.co.jp/articles/22858/20161222/ima-urgent-shelter.htm