はてなキーワード: ptとは
"『婚活PT/結婚相談所/親族の紹介のお見合い』、『職場の上司部下/先輩後輩』に限定した話であれば、"
ここを読み飛ばしてました。
"普通の恋愛とか友達の紹介とかならどっちが奢るべきとかは無いぞ
その通りだと思います。
『婚活PT/結婚相談所/親族の紹介のお見合い』に限定した話であれば、
ド貧困・発達障害じゃなきゃ奢るのが今もフツーですけども(マジで無限ループ)
お金がない・払いたくないなら、友達の紹介や趣味の場での出会いかSNSを使おう(100回目)
友達の紹介や趣味の場やSNS経由の出会いなら面接じゃなくて、友達との食事だからね
化粧・美容を頑張っている私のために他人は飯代その他多く出すべきの人は
頭おかしいメンヘラ・配慮が必要な人として横に置いておいておくとして、
『婚活PT/結婚相談所/親族の紹介のお見合い』、『職場の上司部下/先輩後輩』に限定した話であれば、
奢りたくない・奢る金がないなら、『婚活PT/結婚相談所/親族の紹介のお見合い』は利用せず、
『婚活PT/結婚相談所/親族の紹介のお見合い』の後の食事って、条件に見合っているかの面接だぞ
お食事とかデートとか言わず、そのまんま"面接"って呼ばれているし、ネットでもそう書かれるぞ
部下・後輩にどうしても奢りたくない・奢る金がないなら、そもそも飯に誘わなきゃ良いと思うぞ。迷惑だから
どうしても飲み食べコミュニケーション命じられてるならランチmtg費を会社に請求しろ
『婚活PT/結婚相談所/親族の紹介のお見合い』に限定した場合、
閲覧ありがとうございます。
筆者はケイト&クラウンのDLC実装直前くらいから始めました。古参ではないにしろ初老には入るレベルだと思います。
私は大会運営者でも参加者でもないので、第三者の一般プレイヤー視点と思っていただけたら幸いです。
DBDについてある程度知っていると目にするであろう大会や大会勢という言葉だが、果たしてDBDには大会ができるだけの土壌があるのだろうか。
恐縮だが、私はそうは思えない。
ゲームの大会には「競技性」が重要視されているが、これについて議論すると永久に結論のでない哲学の領域に入ってしまうので省略する。
ただ、競技性について1つ思うところは「参加者全員が同じ目的を目指していて、その過程に至るまでの公平性と運のバランス」が重視されている傾向にあるということだ。
APEXだったら1位、Varolantだったら相手チームに勝利する。と全員の最終的な目的はほぼ一致していて、ゲーム内でも「Champion」だの「Victory」だの表示されて明確に勝利条件が決まっている。
そしてその目的がそのまま大会の優勝条件になっていることがほとんどだ。1番勝った奴が優勝。実にわかりやすい。
またAPEX含むバトロワ系は全員が何も持たないほぼ公平な状態で始まる。そこから序盤に強い武器を拾ってより強くできるか、ヒーローシューター系ならキャラ構成の相性が運になるが、実力や連携次第で覆すことも容易にできる。
大会が多く開催されるゲームほど競技シーンを意識した調整がされていき、環境も目まぐるしく変わっていく。
ではDBDはどうだろう?
まずサバイバーとキラーで人数と目的が全く違う。そしてサバイバー4人の中でも
・脱出できれば満足な人
・ロングチェイスできれば満足な人
等バラバラなのである。言い換えれば、自分で勝利条件を決めることができるのだ。
PvP対戦ゲームでありながら非対称かつ目的が曖昧である。それが奇跡的に噛み合って毎回違うドラマが生まれる。これこそがDBDの最大の特徴と言えるであろう。
脱出したいという人もガチガチに4人PTを組んで、ガチガチにパーク構成や役割を決めれば脱出率は上がるだろうが、そうしている人は果たしてどれくらいいるだろうか。
バランスの議論も毎日のように飛び交っているレベルかつ、DBD運営も調整の内容がパーティゲームにしたいのか競技ゲームにしたいのか二転三転することが常なので、このまま大会を開催することは難しい。
まずサバだったら〇人脱出でXポイント、キラーだったら〇人処刑でYポイント、とサバイバー間とキラー間で目的を一致させ、そのポイントの合計数が一番高いチームが優勝とすることで参加者全員の目的を一致させる。
そしてキャラ、パーク、アドオンに制限を設けることで公平性を生み出す。
運営者はこうしたルールを試行錯誤しながら設けることで、何とか競技性を生み出している。
DBDの大会はほとんどがプレイヤー有志による開催となっている。この人達はDBDをもっと知ってもらいたい・盛り上げたいという気持ちがあるのだろう。
それは素晴らしいことだし、尊敬することでもある。
だが、私がDBDは大会ができるゲームではないと思っている最大の理由は、参加者の質だ。
ここで言う質とはプレイヤースキルのことではなく、参加するにあたる意識や責任のことを指している。この質が他ゲームに比べてあまりにも低すぎる。
SNSを見ているとDBDの大会は比較的大規模な大会でも毎回のように炎上している。あまりにも炎上の頻度が高いので私も苦笑を禁じえなかった。
そういえば数年前に1回だけ開催された公式大会も燃えてたっけ。
炎上の多くはチート・グリッチの使用と煽り行為に起因している。これらを行ってしまう理由として、
・大会に参加する=より多くの人に自分の行いが見られる=DBDのプレイヤー代表として見られる
これらの意識の欠如ではないだろうか。
通常の公開マッチのように仲間内でしか見られていないという感覚のまま大会に参加して迷惑行為をしてしまい、それがリアタイやアーカイブ視聴にてその様が広まって炎上する。
本質的にはつい最近社会で爆発炎上したスシローでの迷惑行為の加害者と何ら変わりはない。
そして最近では、大規模大会の参加者が裁判レベルの不祥事を起こし、それが運営にも飛び火して結果的に大会運営チームを解散する事件が起きた。
こんな事は前代未聞だ。そうしたプレイヤーが参加する確率があまりにも高すぎるのだ。
これを聞いて「そういった人はほんの一部で、多くの参加者はマナー・モラルを守っている」と思われる方も多いだろうが、特にネットではネガティブなイメージの方が記憶に残るものなので、
残念ながらこれがDBDというゲームなのかと広まってしまうのだ。
DBDは調整の度、「これで人口が減ってサービスが終了する」と言われているが、steamの人口はずっと横ばい推移なのでサ終はもう少し先になるだろう。
だが大会に関して今後もこのような事態が続いていけば、ただでさえ競技に向かないゲームなので開催頻度はどんどん下がりやがて身内レベルの小規模大会くらいしか残らないだろう。
プレイヤーの質を上げることが重要だがこればかりは個人のモラルに委ねるしかなく、またここまでの経緯を見るとあまり期待できない。
ついでにこのあとのリプライが正しくて笑う。公金チューチュースキームが知られていないのにこれ。
返信先:
さん
そしてこの人選に歴代政権でもっともネットのインフルエンサーマーケティング(ソーシャルリスニング)に力を入れている現政権のあり方が現れていると思う。こういう単発PTじゃない審議会の人選が今後どうなっていくかは注目ですね。
厚労省は昨年コロナ関連の情報発信について、公式ツイッターでこういうやらかしがあったので、情報発信のPTつくること自体はいいことだと思います。この情報発信のあり方に疑問を呈した西田くんも入ってるし、きちんとネット見て情報チェックしてるんだなという印象。
https://news.yahoo.co.jp/articles/416e988f3f4122bf68405b5a319c497675630b3f
kakuto shiraji
@Kakutoshiraji
返信先:
@tsudaさん
やんじ
@yyanjikun
返信先: @tsudaさん
やってる感出せば良いだけでは?
https://twitter.com/colabo_yumeno/status/1362951950115893253
仁藤夢乃 Yumeno Nito
@colabo_yumeno
アウトリーチとは、支援を必要としている人を探し、直接出向き、つながること。それは広報とは違うのに、Colaboが取り組んでいる「若年被害女性支援モデル事業」の本事業化に向けての動きを見ても、国も勘違いしている。窓口が周知されれば自ら相談できる人に必要なのは、アウトリーチではなく広報。
話題の厚労省有識者会議「コロナ禍の雇用・女性支援プロジェクトチーム~もっとあなたを支えたい~」労働問題専門家の少なさを疑問に思ってたらPTの趣旨は「支援が必要な人にどう情報を届けるのか」というアウトリーチ、PR手法開発なのね。それなら人選は理解できるけど名称これじゃないだろ感が強い。
仁藤夢乃 Yumeno Nito
@colabo_yumeno
Colaboのアウトリーチなどの取り組みがモデルとなり「若年被害女性等支援モデル事業」が来年度から本事業がされるにあたり増額された予算の説明でこの前、厚労省から「ICTを使ったアウトリーチとしてGoogleなどに出す広告費として使える」と言われた。
仁藤夢乃 Yumeno Nito
@colabo_yumeno
·
相談窓口の周知はアウトリーチでなく広報であり、公的支援はそこに力を入れるべきだと考えるが、モデル事業では、公的支援に繋がれずにいる人へのアウトリーチに取り組んでいる。しかし「アウトリーチには声かけよりも、広告費をかけた方が効果的。その方が相談者が増える」と勘違いしている団体もある
仁藤夢乃 Yumeno Nito
@colabo_yumeno
宣伝費をかけて相談者が増えるのは、「自分から相談したい」と思っている人に窓口が知られたからで、自ら支援に繋がれずにいる人に出会えているわけではない。自分から助けを求め、れない状況にある方を、探して、声をかけ、出会い、つながるのがアウトリーチではないか。支援の質がどんどん下がる、、
仁藤夢乃 Yumeno Nito
@colabo_yumeno
·
公的機関の周知も必要だけど、それ以上に質の改善をしないと、出会った人に責任が取れない。そのため、他で適切に対応してもらえなかった自ら助けを求められる状態にある人たちが、Colaboを頼ってくる。そしてColaboは助けを求められない状態にある人の支援まで手が届かなくなってしまっているのが現状
仁藤夢乃 Yumeno Nito
@colabo_yumeno
モデル事業で「何万人の女性を支援しました!」と、国や都は報告してるけど、実態は民間が丸抱え。この事業でColaboから婦人保護施設につなげられたケースは、この3年間で1ケースもない。出会っても受ける気なく、公的に責任が取れない状況が続いていて、形だけ「助けを求めてください」と呼びかける。
返信先:
@colabo_yumeno
さん
一連のツイート重要な指摘だと思いました。結局は行政の仕事の評価基準があいまいで「実」よりも目に見えやすい数字を追いかけやすい(図書館の評価基準が貸出本数になるなどが典型ですね)、予算の単年度主義により中長期的支援が難しい弊害。ここを見直さないと支援の質が上がらないんでしょうね。
仁藤夢乃が数字を出さず金だけ取ることが目的なのはデータから裏付けられています。データや実績を頭に入れると、広告代を独り占めしたいということになります。
「Cural Health」や「Drexel’s University」「Nabla」など、各所でGPT-3の検証がなされているので、今後 医療現場でGPTが使われるようになる可能性を聞いてみた。
Me:
あなたはどのように実装されたの? Deep Learning?
GPT:
はい、私はDeep Learningによって実装されました。特に、Transformerと呼ばれるアルゴリズムを使用して学習されました。これは大量のテキストデータを学習し、自然言語処理タスクに適用することができるように設計されています。
Me:
もっと詳しく。
GPT:
Transformerは、自然言語処理タスクのためのDeep Learningアルゴリズムです。それは、大量のテキストデータを学習し、それを解釈し、理解することができるようになります。 Transformerは、複数の層からなるニューラルネットワークを使用して、テキストを処理します。それは、大量のデータを効率的に処理するために、Attention機構を使用します。これは、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Transformerは、自然言語処理タスクにおいて非常に成功しています。それは、自然言語の翻訳、文章の解釈、質問応答などのタスクに適用されており、高い精度を発揮しています。私はTransformerを使用して学習され、自然言語処理タスクに適用することができます。
Me:
事前訓練とかしているんだよね?
GPT:
はい、私は事前学習を受けています。事前学習とは、大量のテキストデータを使用して、言語モデルを学習することを指します。これは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。事前学習は、言語モデルのパフォーマンスを大幅に改善することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。私は、大量のオンラインテキストデータを使用して学習され、それを解釈し、理解することができるようになりました。それは、自然言語処理タスクに対して高い精度を発揮することができます。
Me:
今のパラメータはいくつ? 前のバージョンよりどのくらい精度がよくなった?
GPT:
私の現在のパラメータ数は、数百億から数千億となっています。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。精度は、バージョンによって異なりますが、一般的には、前のバージョンよりも高い精度が達成されています。これは、新しいアルゴリズムや技術の進歩によって、より良い結果が得られるようになってきているためです。また、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるため、精度が向上していることも見られます。
Me:
具体的なパラメータ数は? 前バージョンのGTP-2、現バージョンのGPT-3、次バージョンのGPT-4、それぞれ教えて。
GPT:
GPT-2は、1.5バイアレイパラメータを持っていました。それは、大量のテキストデータを使用して学習し、自然言語処理タスクに適用することができるようになっていました。GPT-3は、175バイアレイパラメータを持っています。これは、GPT-2よりも多くのパラメータを持っており、より高い精度を達成することができます。GPT-4はまだリリースされていないため、そのパラメータ数については確定していません。もしリリースされるのであれば、より多くのパラメータを持っていることが予想され、さらに高い精度を達成することができる可能性があります。
Me:
175バイアレイパラメータって何? 1750億パラメータの間違いでは?
GPT:
そうです、GPT-3は175バイアレイパラメータを持っています。それは1750億のパラメーターを持っていることを意味します。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。これは、現在の自然言語処理タスクに対して最も大きなモデルであり、高い精度を達成することができるため、市場においても高い評判を得ています。
Me:
バイアレイパラメータを英語で表現して。
GPT:
A "peta-parameter" or "Peta-parameter" (PT) is a measure of the capacity of a machine learning model, specifically the number of parameters it has. In the case of GPT-3 it has 175 peta-parameters, meaning it has 175 million billion parameters. These parameters help the model to understand and interpret large amounts of text data, allowing it to perform natural language processing tasks with high accuracy.
Me:
「175 billion parameters」の間違いでは?
GPT:
そうです、「175 billion parameters」の間違いでした。 GPT-3は175 billion parametersを持っています。それは、自然言語処理タスクに対して高い精度を発揮するために必要なパラメータ数です。申し訳ありませんでした。
Me:
GPT-3はどのように概念レベルの知識を持つの? Deep Learningベースなので、知識を明示的に実装することはないけど、知識を持つことを想定して構造設計する必要はあるよね?
GPT:
GPT-3は、大量のテキストデータを使用して学習されました。それによって、自然言語処理タスクに対して高い精度を発揮することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。GPT-3は、大量のテキストデータから概念レベルの知識を学習します。それは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。 それは、単語や文章の関係性、文章の構造、文章の意味などを理解することができるようになります。GPT-3は、Deep Learningベースのモデルであり、知識を明示的に実装することはありませんが、大量のテキストデータから知識を学習することができるように構造設計されています。それは、Attention機構を使用して特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。
Me:
Attention機構について詳しく。
GPT:
Attention機構は、自然言語処理タスクにおいて重要な役割を担う機構です。それは、大量のテキストデータを処理するために使用され、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Attention機構は、Seq2Seqモデルなどの自然言語処理タスクに使用されています。それは、入力シーケンスから出力シーケンスを生成するために使用されます。Attention機構は、入力シーケンスのある部分に注目し、それに基づいて出力シーケンスを生成することができるようになります。Attention機構は、ニューラルネットワークの中で使用されます。それは、重み付けされた平均値を計算し、それに基づいて入力シーケンスから重要な部分を選択することができるようになります。GPT-3は、Attention機構を使用して、大量のテキストデータから概念レベルの知識を学習し、文章の意味を理解することができるようになります。
定期的に燃えては消えを繰り返すアカデミアのアファーマティブアクション(以下、AA)に対する怒りが止まらないため感情整理のために書く。
東大の准教授以上のポストを今後女性限定で埋める記事を見て日本でのアカデミア就職を諦めかけている。
https://www.asahi.com/sp/articles/DA3S15478221.html
大学のファカルティ職(助教以上のアカポス)の男女比は偏りがあり、教授では7.8%程度になるらしい。そのため、文科省および大学は、女性のアカポス比率を上げるために女性限定の公募を設け女性比率を向上させる事を推奨している。
パッと見ると非常に重要な施策だし、男女平等に向けて良い向きだと思われる。しかし、実際に運営するうえで差別を差別で上塗りする面が拭えず一定数の反対を受けるため、それに対する私見を述べたい。
そもそも論として日本のアカデミアでテニュアのポストは減少傾向にあり、ポストを獲得するという事は簡単な事ではない。そのため有名大(とりわけ大都市で予算の潤沢な大学)はひとつのポストに対して倍率数百倍という応募が殺到する。つまり、年間数万人の博士が誕生するが安定したポストを得ることができるのは男女に関わらず一握りであると言える。ひとつの仮定として、男女平等に一定の優秀層が選ばれた場合、男女比は博士学生の比率とほぼ同一になると予想される。しかし、博士課程学生における女性比率は現在約30%程度となっており、女性に対して選考プロセスで何らかの差別があったと考えても良さそうである。しかし、本当にそうだろうか?
ここで(1)世代間格差, (2)分野間格差, (3)日本における女性のライフスタイルの選好という新たな変数を導入すると、今のAAの問題が浮き彫りになってくる。
(1)世代間格差
これは簡単に言ってしまえば、博士の男女比が世代によって変化しているはずという事である。科学技術政策研究所による調査では、1975年の博士の女性比率は5.8%であり2010年の30%まで上昇傾向にある。
ここで単純な仮定として、現在の教授が60歳とすると博士号の取得年度は1990年となり、その年の博士女性率は12%と推測できる。この場合、選考プロセスにおける差別度は前述の30-7.8 = 22.2から12-7.8 = 4.2と大きくポイントを下げる。また准教授、助教と職位が下がるごとに女性比率は上昇傾向にある事からも、女性の博士取得の上昇とアカポスの女性率は正の相関があり、不合理な差別によって力強い訳圧ある訳ではないと推測できる。
これは男女の分野による好みの違いである。一般に女性はSTEM(科学技術分野)を敬遠する傾向にある。実際に上述の博士数調査に於いても人文科学40%に対し、工学6%と選好に差が生じている。また、議員数や社長の男女比により算出されるジェンダーギャップ指数が高い(男女平等度が高い)国ではSTEM系は敬遠される傾向にある事が報告されている。つまり、完全に平等な選考プロセスを踏んだとしても分野間による男女比の差は生じるため数値目標には分野間の調整が必要だと考えている。もし、理工系などでアカポス男女比を50%すると言ったら、選考に歪みが生じるのは想像に難くないはずである。
(3)ライフスタイルの選好
これが一番燃えそうな気がするが、つまり女性は養うために仕事をしないという事である。
男女における賃金の格差は全業種において大きな問題のひとつだが、独身の場合、差はほとんどない事が各調査で示されている(そもそも同じ職位で性別による給与差があれば労基案件である)。では、どこで差が生まれるかというと、単純に結婚後にフルタイムワークからパートタイムに変更するからである。つまり、女性は結婚後に稼得業務を男性に委託する傾向にあると言える。これは各家庭の家事/稼得の比率を断定するものではなく総体として、女性は結婚、出産後に仕事を辞める傾向にあると言う話である。
ではアカポスと何の関係があるかというと、博士のアカデミアに残った女性も一定確率で仕事を辞めているという事である。つまり、単純に博士の数と出口であるアカポスの比率を比べても一生その溝は埋まらないのである。これは個人的な観測だが、女性である程度のアカポスにある人は医者や同業者などと結婚しており、男性のように専業主婦を養うようなスタイルは非常に珍しい。同期や友人の博士学生もプロポーズされたから辞めたいなどと言う始末である。これは全業種の女性が収入が高くても専業主夫を養わない事と同根であると考えている。
一方で男性は自己実現としての研究職と家族を養うという両軸のバランスを取りながら、覚悟を決めて科学を職業にしようとしている。実際にめちゃくちゃ優秀なのに家族を養うためにアカデミアを去った人を何人も知っている。
(まとめ)
以上をまとめると、現在のアカポス事情は女性の博士取得者の上昇に従い、男女比は改善しつつある。しかし、一定の低い分野や上昇の鈍さは女性そのものの選好も加味する必要があると言える。
しかしながら、現在進められているAAはこの結果を見ずに、ただ数値目標的に女性比率を上げようとしているものが大半である。これは平等を担保されるべきである選考を無理矢理歪めた結果平等であり、断じて許されるものではない。理工系などでは、その歪みによる若手のダメージは深刻である。
百歩譲って過去に機会レベルで男女差別があった事は認めよう。しかし、男女平等が一定水準でインストールされ育ってきた、我々若手男性が不当に差別を受けなければいけないのだ。看護系や美術系に男性が少ない事は、一切問題にしないのに、一部の理工系だけ捕まえて無理なロジックを使わないでほしい。
こっちは今後家族を養っていく事を踏まえて、覚悟を決めたチャレンジをしているのに"自己実現(笑)"みたいなノリで遊びに来ないでくれ。
実際に現場レベルで何が起きてるかと言えば、外国人留学生の女性とか教え子を2年とか助教として置いて、外国人1 pt, 女性1 ptと点数稼ぎしてるだけじゃないか。何の意味があるんだ。
声のデカい女性研究者が声高にAAを礼賛し、少しでも反論すれば差別者呼ばわりするのも辟易する。謎のポンチ絵で反論したり謎ロジックで脅迫しないでくれ。せめて科学者なんだから論理的な整合性を取ってくれ。
貴方たちが求めるアカデミアが、結果平等で男女比が均質な世界なのなら、立場の弱い私たちは受け入れて生きていくしかない。ならせめて、加害している事を受け入れてくれ。痛みも背負った戦いをしてくれ。アクロバティックに被害者にならないでくれ。いっそ「差別者だった性別の方に産まれたのが運のツキだったな!バーカ!死んでやり直すんだな!」とか言われた方が気持ちがいい。それなら我々は、男としてこの時代に生まれた事を受け入れて去っていくから。
恐らくこれを外で言えば、我々男性は一瞬でアカデミアから消されるだろう。もう動き出したのは止まらないし、誰も変えられない。我々20代からすれば抑圧者はいつだって女性である。
感情的に書き殴ったが、以上が今のAAに対する素直な気持ちである。これだけ間違っていても私は科学が大好きなので、科学をしながら家族と生きていける未来を模索していこうと思う。
AUTOMATIC1111のgithubのやり取り、リクエスト元のforkの説明なども見たがわからん。
取り敢えず出来てることは、「laion_7plus」入れて、「Aesthetic weight」「Aesthetic steps」を振ると、出力は変わる。
bilibiliの記事を参考にすると、「Aesthetic weight」を0.2以上より上げていくと、プロンプトとは異なる絵が出てくるということで、やってみたら変わった。
https://www.bilibili.com/read/cv19102552?from=articleDetail
「Aesthetic steps」は効いてるのかよくわからん。
コマンドプロンプトのログを見てると、画像生成前に実行しているらしく、「Aesthetic steps」×4回処理が追加入るので、1枚あたりの生成時間が長くなる。
画像生成時よりit/sが大きいので、最大の50にしてもすぐではあるのだが、効いてるかわからん。
より謎なのは、
で、「Aesthetic text for imgs」になんのテキストを入れるのかさっぱりだ。
.ptファイルを自分で作ることも出来るらしく、ソースとなる画像のフォルダを指定して、Createボタンを押すと一瞬で作成される。
数秒で終わるらしく、これまでのhypernetwork、TIだと数十分~はかかってたので、すぐ終わるのがわからん。
Batch sizeも振ってみたが、どうなっているかわからない。
「laion_7plus」だと大きく変わるので、差が何処で生まれてるのかがわからない。
みんなよくついていけてるな・・・。
ff14に疲れたので休止することにした。戻るかはわからない。
大半のコンテンツで新規がPTプレイに入ってくるにはUIや各種設定のカスタマイズが済んでいる事が大前提
新規は先行者プレイヤーと同じ体験をすることができなくなっている(漆黒時代のボスBGM変更による演出改変は死に値する)
各アクションの説明を「どうせ皆読まないで感覚で遊ぶんだから間違ってても平気w」くらいのノリでリリースされると裏取りで解析くらいしたくなるからリリース品質上げてくれませんか
問題あるユーザーが発生した時に通報マターでしか動かんのなら保身のための追加規約なんぞ作ってんじゃないよ
運営側が自発的に調査して対処してれば君だけ部外者一味みたいなのは今頃拡散して生き残ってないし、そういう事ができるように作った規約ならまずサポートが仕事しないんですか?
せっかく課金したのにユーザが増えまくっているのか滅茶苦茶重くなっていて最悪。
だから流出したモデルを使ってローカルでNAIの環境を構築する。
ネットには情報もだいぶ転がってるけど陳腐化した情報があまりに多いため増田にまとめることにした。
もしかしたらこの記事もすでに陳腐化しているかもしれないが…単純に間違ってたらトラバで教えてほしい。
もちろん自己責任。この記事を見て導入した結果何かあっても増田は何も保証しない。
英語がわかる人はこっちを見た方が早いと思う。今は導入RTAができるくらい導入は楽になっている。
https://rentry.org/nai-speedrun
VRAMが2GB以上あるNVIDIA製のグラフィックボードがあればローカル環境を構築できる。
GPUの世代はGTX700シリーズ以降。なので一昔前のミドル級ボードでも動作するらしい。
IntelのオンボードGPUでも実行する方法があるらしい(stable_diffusion.openvino)が今回は割愛する。自分で探してね。
その他の推奨環境は以下の通り。
対応OS:Windows7以上(と言うがM1Macでも動作する方法があるとかなんとか)
メインメモリ:16GB以上(VRAMもたくさん必要だが起動時にメインメモリも大量に食う。WebUI起動時にタスクマネージャを見ているとよくわかる)
スマホしか持ってないような人やこういうのがよくわからない人はNovelAIを使った方が良いと思う。
今は重いけど、きっとそのうちみんな飽きてサーバも軽くなるかもしれないし。
(追記)NovelAIがリソースを確保してサーバが軽くなったからリスクを背負ってまで導入しなくても良いかも
(追記)Pythonは当然3系。最新の奴を入れれば問題無い。
導入方法はいちいち書かないけど、「python --version」や「git -v」で
正常にバージョン情報が出る(パスがきちんと通っている)ことはちゃんと確認しよう。
Stable Diffusion web UIはStable Diffusionやそれをベースとした画像生成AIを利用するためのフロントエンド。
その中でも特に開発が活発でデファクトスタンダードとなっているのがAUTOMATIC1111版だ。
導入したい適当なディレクトリに対してPowerShellなどで
「git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git」
なお、AUTOMATIC1111版は数時間単位でコミットが行われるから
定期的に「git pull origin master」で更新しよう。
クライアントはqBitTorrentが一番楽だと思う。
ここにはさすがにmagnetリンクは書かないから各自ググって欲しい。
結構誤解されがちなことだが流出データ50GBを全部ダウンロードする必要は無い。
必要なファイルはanimefull-final-prunedディレクトリの中身とanimevae.ptだから5GBちょっとくらいなんじゃないかな。
もし余裕があるならmoduleディレクトリの中身もダウンロードすればいいけど、ぶっちゃけ必要無いんじゃないか?
まずはanimefull-final-prunedの中身のファイルをリネーム。
「model.ckpt」を「animefinal-full-pruned.ckpt」のようなわかりやすい名前にして、
「animevae.pt」を例えば「animefinal-full-pruned.vae.pt」のような拡張子以外は同じファイル名にする。
WebUI起動フォルダ配下の\models\Stable-diffusionにリネームしたファイルを移動させれば配置はOK。
ちなみにmoduleディレクトリの中身は\models\hypernetworksに移動させて使う。
それらのファイルを設定で適用させると画風が結構変わるがNovelAI再現とは関係無いみたいだ。
(追記)moduleディレクトリの中身の.ptファイルはhypernetworksという技術によって画風などを学習したものらしい。
すでに複数のイラストレーターの画風を学習したptファイルが作成されており議論を呼んでいる。
自分のグラボのVRAMが4GB未満の場合は「set COMMANDLINE_ARGS=」の後に
4GB未満の場合は「--medvram」、2GB未満の場合は「--lowvram」とパラメータを追加しておこう。
自分の持ってるグラボのVRAMがわからないときはGPU-Zなどで調べよう。
またGTX1600系固有のバグ(単色の画像が出力される)があるらしいので
その場合は「--no-half-vae」もしくは「--no-half」や「--precision full」とパラメータを追加。
ちなみにパラメータに「--xformers」を追加してxformersを導入・使用すると
消費VRAMが減って画像生成処理時間も短縮されるので是非導入しよう。
画像からdanbooruのタグをAIで調査するdeepdanbooruを利用する場合は「--deepdanbooru」を追加。
のようになる。
ターミナルやPowerShellなどでwebui-user.batを起動しwebUIの初期導入と起動を行う。
過去には手動でCUDA等を導入する必要があったが、現在はこの初期導入でだいたいの導入が行われる。
ずいぶん楽にはなったがその分初期導入の時間は結構長い。10分~20分くらいかかるかもしれない。
途中で導入処理がエラーで止まってしまった場合は管理者権限で実行するなどして対応して欲しい。
起動ができたらSettingで以下の設定を変更してNovelAIに近づける。
Stop At last layers of CLIP modelを2に、
Eta noise seed deltaを31337にする。
これで設定は完了!
設定を合わせて完全にNovelAIと同じ内容になったのかを確認するテストがある。
出力結果から海外じゃHallo Asuka Testなんて呼ばれている。
これは初期SEEDをはじめとする設定内容が完全に一致していれば同じ出力結果を得られる仕組みを利用している。
プロンプトの内容:masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
ネガティブプロンプトの内容:lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
https://i.imgur.com/Bfl5qJB.jpg
なお、このテストはAUTOMATIC1111のバージョンやxformersの適用状態によっては微妙に違う画像が出力されることがあるらしい。
xformersを適用させている増田の環境だと確かに二つ並べると間違い探しレベルの違いがあった。
「Booru tag autocompletion for A1111」を導入すればNovelAIのように自動でdanbooruのタグを保管してくれる。
画像生成AIモデルはStable DiffusionがOSSのため派生が結構多い。
自前で追加学習もできるため自前で学習した追加AIモデルを4chanのような掲示板などで共有する人もいるらしい。
しかしそのようなモデルの中にウィルスのような悪意のある動作を行うものもあるらしい。
FBIがペドフィリアを一網打尽にするためにIPアドレスなどの個人情報を抜き出す動作を行うロリ特化AIモデルを掲示板で配布していて
しかもそれには本物の児童ポルノが教師データとして使われている…などという都市伝説的な話が今界隈を賑わせている。
掲示板などを読んでみると、単純にStable Diffusionにアニメ絵を学習させただけではなさそうだった。
アニメ画像を学習させた.ckpt(GB単位)と、付属データらしい.vae.pt(数百MB)と、更にhypernetworkという新しい単語が出てきて、.ptファイルというのもあるらしい。
.ptは既存のTextual inversionでも使われている拡張子なのだが同じだろうか。
hypernetworkを読み込ませないと、崩れたアニメ絵が出てくるようだ。
NovelAI側のヘルプを見ると、プロンプトの最初に『masterpiece, best quality,』をつけるとクオリティが上がるらしく、拡張する時に追加しているキーワードなのかもしれない。
で、結局NovelAIはどうやって実現しているのか。
拡散モデルを研究している人も知りたいというツイートをみたので論文にない独自方法なのか?
vae.ptというファイル名からの推測だとVAE学習させてるのかな?
どうやらhypernetworksという技術を追加で使っているらしい。
AUTOMATIC 1111にhypernetworksに関する実装が追加されている。現在gitのブランチでhypernetworksトレーニングのコードの実装開始されている。
掲示板などを見ていくと、promptの最初に{masterpiece}を最初につけないと、いわゆるNovelAIっぽいアニメ絵にならないらしい。
{masterpiece}をつけない場合、キャラ名は認識しているっぽいが、WaifuDiffusionっぽい崩れた画像が出てくるようだ。(アニメ画像を学習した.ckptだけで動作し、.vae.ptは動いてない?hypernetworksが効いてない?)
キャラ名については、同一名で作品が違うという場合があるので、おそらく学習時に別の単語に置き換えていると想像する。(NovelAIでキャラ名を入れた際に候補が出るが、変換しているはず)
他にpromptのトークン数をNovelAIは拡張している。
StableDiffusionの75トークンは、512x512の画像との対応付けから来ているというのが、付け焼き刃の知識での理解なのだが、どう対応付けしているのか。
最初に{masterpiece}があった場合、フラグをONにして、CLIPに渡すときは{masterpiece}を除外ってのは想像できるが、それでもトークンが余る。
Waifu Diffusion V1.3がリリースされ、学習する枚数を増やしたが、掲示板などに貼り付けてあるものを見る限り、まだ手は改善されてない。
最終リリース前(epoch5,6?)のものとの比較した画像も流れているが、見ても違いはわからない。
Stable DiffusionがDiffusion modelで精度が高い先端モデルとされているが、単純に学習枚数だけ増やしても手は描けない、ということではないだろうか。
https://blog.novelai.net/novelai-improvements-on-stable-diffusion-e10d38db82ac
まずマイナンバーカードを取得した人は国からデスゲームポイント(以下ptと略する)を貰えるようにする
一回こっきりptを貰えるのでもいいし定期的にptがゼロの人が1000pt貰えるとかでもいい
そして国が指定したデスゲームプレイスでのみptの増減のあるゲームで人々が対戦できるようにする
ゲームは国が委託するのでもいいし各種メーカーが国に許可とってデスゲームプレイスで開催するのでもいい
ptがゼロになったらもうゲームがプレイできなくなるという緊張感がデスゲームをやってる気分になれる