「pt」を含む日記 RSS

はてなキーワード: ptとは

2023-05-23

anond:20230523144913

"『婚活PT結婚相談所親族の紹介のお見合い』、『職場上司部下/先輩後輩』に限定した話であれば、"

すみません

ここを読み飛ばしてました。

僕が間違っていました。おっしゃる通りだと思います

"普通恋愛とか友達の紹介とかならどっちが奢るべきとかは無いぞ

それぞれの経済状態に合わせて適当にやるがよかろ"

その通りだと思います

anond:20230523143909 anond:20230714102551

婚活PT結婚相談所親族の紹介のお見合い』に限定した話であれば、

貧困発達障害じゃなきゃ奢るのが今もフツーですけども(マジで無限ループ)

そもそも条件に見合っているか面接なんで

お金がない・払いたくないなら、友達の紹介や趣味の場での出会いSNSを使おう(100回目)

友達の紹介や趣味の場やSNS経由の出会いなら面接じゃなくて、友達との食事から

 

普通恋愛とか友達の紹介とかならどっちが奢るべきとかは無いぞ

それぞれの経済状態に合わせて適当にやるがよかろ

常識インストール出来ない人の無限ループ

化粧・美容を頑張っている私のために他人は飯代その他多く出すべきの人は

おかしメンヘラ配慮必要な人として横に置いておいておくとして、

 

婚活PT結婚相談所親族の紹介のお見合い』、『職場上司部下/先輩後輩』に限定した話であれば、

男が奢る、男女性関係なく上司・先輩が奢るのが "フツー" だと思いますけどね

 

奢りたくない・奢る金がないなら、『婚活PT結婚相談所親族の紹介のお見合い』は利用せず、

友達の紹介や趣味の場での出会いSNSを使おう

婚活PT結婚相談所親族の紹介のお見合い』の後の食事って、条件に見合っているか面接だぞ

食事とかデートとか言わず、そのまんま"面接"って呼ばれているし、ネットでもそう書かれるぞ

例:PT後の面接で〜

 

部下・後輩にどうしても奢りたくない・奢る金がないなら、そもそも飯に誘わなきゃ良いと思うぞ。迷惑から

どうしても飲み食べコミュニケーション命じられてるならランチmtg費を会社請求しろ

 

anond:20230523130146

2023-04-28

anond:20230428105524

それくらいの人がなるのが一番いい

もしくはPTの命運握ってるのキモティーwwwみたいな奴か

PTのために役に立ちたいんです!みたいな奴がやると病む

2023-03-16

anond:20230316165656

ベンチ温めてるのが一番PTDPS上がるよ

2023-03-14

持ってるコマ全部出せるソシャゲが出てほしい

限定ガチャが来たからとりあえず引いたら目玉キャラが当たったんだけど

でもこのキャラ、うちのレギュラーキャラ上位互換で完全に入れ替えになるんだよな。

完全上位互換からたぶん今のレギュラーキャラの出番はもう一切なくなる。

 

まぁ、こんなことソシャゲでは日常ちゃめしごとなんだけど、

なんていうかこういうリソース無駄にしないようなシステム出てくれんかな。

チェンクロだと200体参加の総力戦みたいなのがあった気がするんだけど、

あれのもうちょっと個性を活かせる版というか。

 

できれば複数PTを結成して攻略に挑まなきゃいけない持ち検みたいな奴じゃなくて

一気にどばって出せるような奴が好き。

2023-03-02

anond:20230302132607

PTの間にいる味方とか敵の攻撃を間近で受けている戦士はどうなるのっと

2023-02-19

集中力が途切れやす自分にとって、ソシャゲは効き目がある

やるべきこと→ソシャゲ音ゲーが多い)で何か一回か一曲やる→やるべきこと→ソシャゲ

このサイクルで、わりといろんなやるべきことに取り掛かれるので助かっている。

ソシャゲのほうに時間をかけすぎてしまうこともあるが、イベント中のソシャゲを選べば「イベントptが貯められた」という利はあるのでよりよい。

難点は、端から見るとサボって見えること。

2023-02-16

anond:20230216225712 anond:20230221165200

婚活PT結婚相談所親族の紹介のお見合い』に限定した場合

貧困発達障害じゃなきゃ奢るのが普通から

貧困発達障害が避けられるだけでも良かったじゃん

 

普通恋愛とか友達の紹介とかならどっちが奢るべきとかは無いと思うわ

それぞれの経済状態に合わせて適当にやるがよかろ

anond:20230216113152

真面目にそうだぞ。ひとつ常識を得ることができてよかったね

婚活PT結婚相談所親族の紹介のお見合い』の後の食事って

そのまんま<面接>って言われてるしネットでもそう書かれるぞ

例:PT後の面接で〜

 

お金がない・払いたくないなら、友達の紹介や趣味の場での出会いSNSを使おう(100回目)

友達の紹介や趣味の場やSNS経由の出会いなら面接じゃなくて、友達との食事から

anond:20230216105845

婚活PT結婚相談所親族の紹介のお見合い』、『職場上司部下/先輩後輩』に限定した話であれば、

男が奢る、(性別関係なく)上司・先輩が奢るのが "フツー" だと思いますけどね

横だけど、根拠は?

理由がなければ結局あなた感想まりだぞ

anond:20230216104226

嫌味でなくてマジでそういう頭のおかしメンヘラ相手にしないほうがいいぞ

根底には『経済的な自立が出来ていない』がある

 

ただ、頭おかしメンヘラ配慮必要な人として横に置いておいて、

婚活PT結婚相談所親族の紹介のお見合い』、『職場上司部下/先輩後輩』に限定した話であれば、

男が奢る、(性別関係なく)上司・先輩が奢るのが "フツー" だと思いますけどね

 

奢りたくない・奢る金がないなら、『婚活PT結婚相談所親族の紹介のお見合い』は利用せず、

友達の紹介や趣味の場での出会いSNSを使おう

 

部下・後輩にどうしても奢りたくない・奢る金がないなら、そもそも飯に誘わなきゃ良いと思うぞ。迷惑から

どうしても飲み食べコミュニケーション命じられてるならランチmtg費を会社請求しろ

2023-02-15

DBDの大会について思うこと

閲覧ありがとうございます

ここ最近のDBDの大会について書いていきます

筆者はケイトクラウンDLC実装直前くらいから始めました。古参ではないにしろ初老には入るレベルだと思います

私は大会運営者でも参加者でもないので、第三者一般プレイヤー視点と思っていただけたら幸いです。

DBDの競技性と大会について

DBDについてある程度知っていると目にするであろう大会大会勢という言葉だが、果たしてDBDには大会ができるだけの土壌があるのだろうか。

恐縮だが、私はそうは思えない。

ゲーム大会には「競技性」が重要視されているが、これについて議論すると永久結論のでない哲学領域に入ってしまうので省略する。

ただ、競技性について1つ思うところは「参加者全員が同じ目的を目指していて、その過程に至るまでの公平性と運のバランス」が重視されている傾向にあるということだ。

APEXだったら1位、Varolantだったら相手チームに勝利する。と全員の最終的な目的はほぼ一致していて、ゲーム内でも「Champion」だの「Victory」だの表示されて明確に勝利条件が決まっている。

そしてその目的がそのまま大会の優勝条件になっていることがほとんどだ。1番勝った奴が優勝。実にわかやすい。

またAPEX含むバトロワ系は全員が何も持たないほぼ公平な状態で始まる。そこから序盤に強い武器を拾ってより強くできるか、ヒーローシューター系ならキャラ構成の相性が運になるが、実力や連携次第で覆すことも容易にできる。

大会が多く開催されるゲームほど競技シーンを意識した調整がされていき、環境も目まぐるしく変わっていく。

ではDBDはどうだろう?

まずサバイバーキラーで人数と目的が全く違う。そしてサバイバー4人の中でも

脱出できれば満足な人

・ロングチェイスできれば満足な人

デイリーチャレンジが達成できれば満足な人

推しキラーに会えれば満足な人

バラバラなのである。言い換えれば、自分勝利条件を決めることができるのだ。

PvP対戦ゲームでありながら非対称かつ目的曖昧である。それが奇跡的に噛み合って毎回違うドラマ生まれる。これこそがDBDの最大の特徴と言えるであろう。

脱出したいという人もガチガチに4人PTを組んで、ガチガチにパーク構成役割を決めれば脱出率は上がるだろうが、そうしている人は果たしてどれくらいいるだろうか。

バランス議論毎日のように飛び交っているレベルかつ、DBD運営も調整の内容がパーティゲームにしたいのか競技ゲームにしたいのか二転三転することが常なので、このまま大会を開催することは難しい。

では、DBDの大会運営する人達はどうしているのだろうか。

まずサバだったら〇人脱出でXポイントキラーだったら〇人処刑でYポイント、とサバイバー間とキラー間で目的を一致させ、そのポイントの合計数が一番高いチームが優勝とすることで参加者全員の目的を一致させる。

そしてキャラ、パーク、アドオン制限を設けることで公平性を生み出す。

運営者はこうしたルール試行錯誤しながら設けることで、何とか競技性を生み出している。

大会を開いて運営すること自体はとても良いことだと思う。

DBDの大会ほとんどがプレイヤー有志による開催となっている。この人達はDBDをもっと知ってもらいたい・盛り上げたいという気持ちがあるのだろう。

それは素晴らしいことだし、尊敬することでもある。

だが、私がDBDは大会ができるゲームではないと思っている最大の理由は、参加者の質だ。

ここで言う質とはプレイヤースキルのことではなく、参加するにあたる意識責任のことを指している。この質が他ゲームに比べてあまりにも低すぎる。

SNSを見ているとDBDの大会比較的大規模な大会でも毎回のように炎上している。あまりにも炎上の頻度が高いので私も苦笑を禁じえなかった。

そういえば数年前に1回だけ開催された公式大会燃えてたっけ。

炎上の多くはチートグリッチ使用煽り行為に起因している。これらを行ってしま理由として、

大会に参加する=より多くの人に自分の行いが見られる=DBDのプレイヤー代表として見られる

大会開催者へのリスペクト

これらの意識の欠如ではないだろうか。

通常の公開マッチのように仲間内しか見られていないという感覚のまま大会に参加して迷惑行為をしてしまい、それがリアタイアーカイブ視聴にてその様が広まって炎上する。

本質的にはつい最近社会で爆発炎上したスシローでの迷惑行為加害者と何ら変わりはない。

そして最近では、大規模大会参加者裁判レベル不祥事を起こし、それが運営にも飛び火して結果的大会運営チームを解散する事件が起きた。

こんな事は前代未聞だ。そうしたプレイヤーが参加する確率があまりにも高すぎるのだ。

これを聞いて「そういった人はほんの一部で、多くの参加者マナーモラルを守っている」と思われる方も多いだろうが、特にネットではネガティブイメージの方が記憶に残るものなので、

残念ながらこれがDBDというゲームなのかと広まってしまうのだ。

DBDは調整の度、「これで人口が減ってサービスが終了する」と言われているが、steam人口はずっと横ばい推移なのでサ終はもう少し先になるだろう。

だが大会に関して今後もこのような事態が続いていけば、ただでさえ競技に向かないゲームなので開催頻度はどんどん下がりやがて身内レベルの小規模大会くらいしか残らないだろう。

プレイヤーの質を上げることが重要だがこればかりは個人モラルに委ねるしかなく、またここまでの経緯を見るとあまり期待できない。

「DBDの大会」という存在は、今大きな岐路に立たされていると考えている。

2023-02-12

最近スーパー銭湯行ってないなぁ。土日に行くの面倒だし疲れる。というか今年に入って平日はほぼ毎日21、22時まで残業してるのがクソ。行動ptが1か2しかない。

2023-02-05

anond:20230205220803

ついでにこのあとのリプライが正しくて笑う。公金チューチュースキームが知られていないのにこれ。

津田大介

@tsuda

2021年2月20日

返信先:

@tsuda

さん

そしてこの人選に歴代政権もっとネットインフルエンサーマーケティングソーシャルリスニング)に力を入れている現政権のあり方が現れていると思う。こういう単発PTじゃない審議会の人選が今後どうなっていくかは注目ですね。

津田大介

@tsuda

2021年2月20日

厚労省は昨年コロナ関連の情報発信について、公式ツイッターでこういうやらかしがあったので、情報発信PTつくること自体はいいことだと思います。この情報発信のあり方に疑問を呈した西田くんも入ってるし、きちんとネット見て情報チェックしてるんだなという印象。

https://news.yahoo.co.jp/articles/416e988f3f4122bf68405b5a319c497675630b3f

kakuto shiraji

@Kakutoshiraji

2021年2月20日

返信先:

@tsudaさん

で、やってる感をアピールする、詐欺ってことか。

やんじ

@yyanjikun

2021年2月20日

返信先: @tsudaさん

やってる感出せば良いだけでは?

強欲な仁藤夢乃津田大介は公金チューチュースキーム仲間

https://twitter.com/colabo_yumeno/status/1362951950115893253

仁藤夢乃 Yumeno Nito

@colabo_yumeno

2021年2月20日

アウトリーチとは、支援必要としている人を探し、直接出向き、つながること。それは広報とは違うのに、Colaboが取り組んでいる「若年被害女性支援モデル事業」の本事業化に向けての動きを見ても、国も勘違いしている。窓口が周知されれば自ら相談できる人に必要なのはアウトリーチではなく広報

引用ツイート

津田大介

@tsuda

2021年2月20日

話題厚労省有識者会議コロナ禍の雇用女性支援プロジェクトチームもっとあなたを支えたい~」労働問題専門家の少なさを疑問に思ってたらPT趣旨は「支援必要な人にどう情報を届けるのか」というアウトリーチPR手法開発なのね。それなら人選は理解できるけど名称これじゃないだろ感が強い。

仁藤夢乃 Yumeno Nito

@colabo_yumeno

2021年2月20日

Colaboのアウトリーチなどの取り組みがモデルとなり「若年被害女性支援モデル事業」が来年から事業がされるにあたり増額された予算説明でこの前、厚労省からICTを使ったアウトリーチとしてGoogleなどに出す広告費として使える」と言われた。

仁藤夢乃 Yumeno Nito

@colabo_yumeno

·

2021年2月20日

相談窓口の周知はアウトリーチでなく広報であり、公的支援はそこに力を入れるべきだと考えるが、モデル事業では、公的支援に繋がれずにいる人へのアウトリーチに取り組んでいる。しかし「アウトリーチには声かけよりも、広告費をかけた方が効果的。その方が相談者が増える」と勘違いしている団体もある

仁藤夢乃 Yumeno Nito

@colabo_yumeno

2021年2月20日

宣伝費をかけて相談者が増えるのは、「自分から相談したい」と思っている人に窓口が知られたからで、自ら支援に繋がれずにいる人に出会えているわけではない。自分から助けを求め、れない状況にある方を、探して、声をかけ、出会い、つながるのがアウトリーチではないか支援の質がどんどん下がる、、

仁藤夢乃 Yumeno Nito

@colabo_yumeno

·

2021年2月20日

公的機関の周知も必要だけど、それ以上に質の改善をしないと、出会った人に責任が取れない。そのため、他で適切に対応してもらえなかった自ら助けを求められる状態にある人たちが、Colaboを頼ってくる。そしてColaboは助けを求められない状態にある人の支援まで手が届かなくなってしまっているのが現状

仁藤夢乃 Yumeno Nito

@colabo_yumeno

2021年2月20日

モデル事業で「何万人の女性支援しました!」と、国や都は報告してるけど、実態民間が丸抱え。この事業でColaboから婦人保護施設につなげられたケースは、この3年間で1ケースもない。出会っても受ける気なく、公的責任が取れない状況が続いていて、形だけ「助けを求めてください」と呼びかける。

津田大介

@tsuda

返信先:

@colabo_yumeno

さん

一連のツイート重要な指摘だと思いました。結局は行政仕事評価基準あいまいで「実」よりも目に見えやす数字を追いかやすい(図書館評価基準が貸出本数になるなどが典型ですね)、予算の単年度主義により中長期的支援が難しい弊害。ここを見直さないと支援の質が上がらないんでしょうね。

午後5:33 · 2021年2月20日

仁藤夢乃数字を出さず金だけ取ることが目的なのはデータから裏付けられていますデータや実績を頭に入れると、広告代を独り占めしたいということになります

2023-01-22

GPT医療現場で使われる可能性について聞いてみた

Cural Health」や「Drexel’s University」「Nabla」など、各所でGPT-3の検証がなされているので、今後 医療現場GPTが使われるようになる可能性を聞いてみた。

GPT-3の実装を軽く確認

Me:

あなたはどのように実装されたの? Deep Learning?

GPT:

はい、私はDeep Learningによって実装されました。特に、Transformerと呼ばれるアルゴリズム使用して学習されました。これは大量のテキストデータ学習し、自然言語処理タスク適用することができるように設計されています

Me:

もっと詳しく。

GPT:

Transformerは、自然言語処理タスクのためのDeep Learningアルゴリズムです。それは、大量のテキストデータ学習し、それを解釈し、理解することができるようになります。 Transformerは、複数の層からなるニューラルネットワーク使用して、テキストを処理します。それは、大量のデータ効率的に処理するために、Attention機構使用します。これは、特定の部分のテキストに注目しながら、それらの関係理解することができるようになります。Transformerは、自然言語処理タスクにおいて非常に成功しています。それは、自然言語翻訳文章解釈質問応答などのタスク適用されており、高い精度を発揮しています。私はTransformerを使用して学習され、自然言語処理タスク適用することができます

Me:

事前訓練とかしているんだよね?

GPT:

はい、私は事前学習を受けています。事前学習とは、大量のテキストデータ使用して、言語モデル学習することを指します。これは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。事前学習は、言語モデルパフォーマンスを大幅に改善することができます。それは、事前学習済みのモデル使用することで、新しいタスクに対して学習スキップすることができ、タスク特化の fine-tuning を行うことができるためです。私は、大量のオンラインテキストデータ使用して学習され、それを解釈し、理解することができるようになりました。それは、自然言語処理タスクに対して高い精度を発揮することができます

Me:

今のパラメータはいくつ? 前のバージョンよりどのくらい精度がよくなった?

GPT:

私の現在パラメータ数は、数百億から数千億となっています。これは、大量のデータ使用して学習し、高い精度を達成するために必要パラメータ数です。精度は、バージョンによって異なりますが、一般的には、前のバージョンよりも高い精度が達成されています。これは、新しいアルゴリズム技術進歩によって、より良い結果が得られるようになってきているためです。また、事前学習済みのモデル使用することで、新しいタスクに対して学習スキップすることができ、タスク特化の fine-tuning を行うことができるため、精度が向上していることも見られます

Me:

具体的なパラメータ数は? 前バージョンGTP-2、現バージョンGPT-3、次バージョンGPT-4、それぞれ教えて。

GPT:

GPT-2は、1.5バイアレイパラメータを持っていました。それは、大量のテキストデータ使用して学習し、自然言語処理タスク適用することができるようになっていました。GPT-3は、175バイアレイパラメータを持っています。これは、GPT-2よりも多くのパラメータを持っており、より高い精度を達成することができますGPT-4はまだリリースされていないため、そのパラメータ数については確定していません。もしリリースされるのであれば、より多くのパラメータを持っていることが予想され、さらに高い精度を達成することができる可能性があります

Me:

175バイアレイパラメータって何? 1750億パラメータの間違いでは?

GPT:

そうです、GPT-3は175バイアレイパラメータを持っています。それは1750億のパラメーターを持っていることを意味します。これは、大量のデータ使用して学習し、高い精度を達成するために必要パラメータ数です。これは、現在自然言語処理タスクに対して最も大きなモデルであり、高い精度を達成することができるため、市場においても高い評判を得ています

Me:

バイアレイパラメータ英語表現して。

GPT:

A "peta-parameter" or "Peta-parameter" (PT) is a measure of the capacity of a machine learning model, specifically the number of parameters it has. In the case of GPT-3 it has 175 peta-parameters, meaning it has 175 million billion parameters. These parameters help the model to understand and interpret large amounts of text data, allowing it to perform natural language processing tasks with high accuracy.

Me:

「175 billion parameters」の間違いでは?

GPT:

そうです、「175 billion parameters」の間違いでした。 GPT-3は175 billion parametersを持っています。それは、自然言語処理タスクに対して高い精度を発揮するために必要パラメータ数です。申し訳ありませんでした。

Me:

GPT-3はどのように概念レベル知識を持つの? Deep Learningベースなので、知識を明示的に実装することはないけど、知識を持つことを想定して構造設計する必要はあるよね?

GPT:

GPT-3は、大量のテキストデータ使用して学習されました。それによって、自然言語処理タスクに対して高い精度を発揮することができます。それは、事前学習済みのモデル使用することで、新しいタスクに対して学習スキップすることができ、タスク特化の fine-tuning を行うことができるためです。GPT-3は、大量のテキストデータから概念レベル知識学習します。それは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。 それは、単語文章関係性、文章構造文章意味などを理解することができるようになりますGPT-3は、Deep Learningベースモデルであり、知識を明示的に実装することはありませんが、大量のテキストデータから知識学習することができるように構造設計されています。それは、Attention機構使用して特定の部分のテキストに注目しながら、それらの関係理解することができるようになります

Me:

Attention機構について詳しく。

GPT:

Attention機構は、自然言語処理タスクにおいて重要役割を担う機構です。それは、大量のテキストデータを処理するために使用され、特定の部分のテキストに注目しながら、それらの関係理解することができるようになります。Attention機構は、Seq2Seqモデルなどの自然言語処理タスク使用されています。それは、入力シーケンスから出力シーケンスを生成するために使用されます。Attention機構は、入力シーケンスのある部分に注目し、それに基づいて出力シーケンスを生成することができるようになります。Attention機構は、ニューラルネットワークの中で使用されます。それは、重み付けされた平均値計算し、それに基づいて入力シーケンスから重要な部分を選択することができるようになりますGPT-3は、Attention機構使用して、大量のテキストデータから概念レベル知識学習し、文章意味理解することができるようになります

2022-11-20

アカデミアのアファーマティブアクションなんてクソ喰らえ

東大博士課程 男性

定期的に燃えては消えを繰り返すアカデミアのアファーマティブアクション(以下、AA)に対する怒りが止まらないため感情整理のために書く。

東大准教授以上のポストを今後女性限定で埋める記事を見て日本でのアカデミア就職を諦めかけている。

https://www.asahi.com/sp/articles/DA3S15478221.html

大学のファカルティ職(助教以上のアカポス)の男女比は偏りがあり、教授では7.8%程度になるらしい。そのため、文科省および大学は、女性アカポス比率を上げるために女性限定公募を設け女性比率を向上させる事を推奨している。

パッと見ると非常に重要施策だし、男女平等に向けて良い向きだと思われる。しかし、実際に運営するうえで差別差別で上塗りする面が拭えず一定数の反対を受けるため、それに対する私見を述べたい。

そもそも論として日本アカデミアでテニュアポストは減少傾向にあり、ポストを獲得するという事は簡単な事ではない。そのため有名大(とりわけ大都市予算の潤沢な大学)はひとつポストに対して倍率数百倍という応募が殺到する。つまり、年間数万人の博士誕生するが安定したポストを得ることができるのは男女に関わらず一握りであると言える。ひとつ仮定として、男女平等一定の優秀層が選ばれた場合、男女比は博士学生比率とほぼ同一になると予想される。しかし、博士課程学生における女性比率現在約30%程度となっており、女性に対して選考プロセスで何らかの差別があったと考えても良さそうであるしかし、本当にそうだろうか?

ここで(1)世代間格差, (2)分野間格差, (3)日本における女性ライフスタイルの選好という新たな変数を導入すると、今のAA問題が浮き彫りになってくる。

(1)世代間格差

 これは簡単に言ってしまえば、博士の男女比が世代によって変化しているはずという事である科学技術政策研究所による調査では、1975年博士女性比率は5.8%であり2010年の30%まで上昇傾向にある。

 ここで単純な仮定として、現在教授が60歳とすると博士号の取得年度は1990年となり、その年の博士女性率は12%と推測できる。この場合選考プロセスにおける差別度は前述の30-7.8 = 22.2から12-7.8 = 4.2と大きくポイントを下げる。また准教授助教と職位が下がるごとに女性比率は上昇傾向にある事からも、女性博士取得の上昇とアカポスの女性率は正の相関があり、不合理な差別によって力強い訳圧ある訳ではないと推測できる。

(2)分野間格差

 これは男女の分野による好みの違いである。一般女性STEM(科学技術分野)を敬遠する傾向にある。実際に上述の博士調査於いて人文科学40%に対し、工学6%と選好に差が生じている。また、議員数や社長の男女比により算出されるジェンダーギャップ指数が高い(男女平等度が高い)国ではSTEM系は敬遠される傾向にある事が報告されている。つまり、完全に平等選考プロセスを踏んだとしても分野間による男女比の差は生じるため数値目標には分野間の調整が必要だと考えている。もし、理工系などでアカポス男女比を50%すると言ったら、選考に歪みが生じるのは想像に難くないはずである

(3)ライフスタイルの選好

 これが一番燃えそうな気がするが、つまり女性は養うために仕事をしないという事である

 男女における賃金格差は全業種において大きな問題ひとつだが、独身場合、差はほとんどない事が各調査で示されている(そもそも同じ職位で性別による給与差があれば労基案件である)。では、どこで差が生まれるかというと、単純に結婚後にフルタイムワークからパートタイムに変更するからである。つまり女性結婚後に稼得業務男性委託する傾向にあると言える。これは各家庭の家事/稼得の比率を断定するものではなく総体として、女性結婚出産後に仕事を辞める傾向にあると言う話である

 ではアカポスと何の関係があるかというと、博士アカデミアに残った女性一定確率仕事を辞めているという事である。つまり、単純に博士の数と出口であるアカポスの比率を比べても一生その溝は埋まらないのである。これは個人的観測だが、女性である程度のアカポスにある人は医者同業者などと結婚しており、男性のように専業主婦を養うようなスタイルは非常に珍しい。同期や友人の博士学生プロポーズされたから辞めたいなどと言う始末である。これは全業種の女性収入が高くても専業主夫を養わない事と同根であると考えている。

一方で男性自己実現としての研究職と家族を養うという両軸のバランスを取りながら、覚悟を決めて科学職業にしようとしている。実際にめちゃくちゃ優秀なのに家族を養うためにアカデミアを去った人を何人も知っている。

(まとめ)

以上をまとめると、現在アカポス事情女性博士取得者の上昇に従い、男女比は改善しつつある。しかし、一定の低い分野や上昇の鈍さは女性のものの選好も加味する必要があると言える。

しかしながら、現在進められているAAはこの結果を見ずに、ただ数値目標的に女性比率を上げようとしているものが大半である。これは平等担保されるべきである選考を無理矢理歪めた結果平等であり、断じて許されるものではない。理工系などでは、その歪みによる若手のダメージは深刻である

百歩譲って過去に機会レベル男女差別があった事は認めよう。しかし、男女平等一定水準でインストールされ育ってきた、我々若手男性が不当に差別を受けなければいけないのだ。看護系や美術系に男性が少ない事は、一切問題にしないのに、一部の理工系だけ捕まえて無理なロジックを使わないでほしい。

こっちは今後家族を養っていく事を踏まえて、覚悟を決めたチャレンジをしているのに"自己実現(笑)"みたいなノリで遊びに来ないでくれ。

実際に現場レベルで何が起きてるかと言えば、外国人留学生女性とか教え子を2年とか助教として置いて、外国人1 pt, 女性1 ptと点数稼ぎしてるだけじゃないか。何の意味があるんだ。

声のデカ女性研究者が声高にAAを礼賛し、少しでも反論すれば差別者呼ばわりするのも辟易する。謎のポンチ絵反論したり謎ロジック脅迫しないでくれ。せめて科学者なんだから論理的整合性を取ってくれ。

貴方たちが求めるアカデミアが、結果平等で男女比が均質な世界なのなら、立場の弱い私たちは受け入れて生きていくしかない。ならせめて、加害している事を受け入れてくれ。痛みも背負った戦いをしてくれ。アクロバティックに被害者にならないでくれ。いっそ「差別者だった性別の方に産まれたのが運のツキだったな!バーカ!死んでやり直すんだな!」とか言われた方が気持ちがいい。それなら我々は、男としてこの時代に生まれた事を受け入れて去っていくから

恐らくこれを外で言えば、我々男性は一瞬でアカデミアから消されるだろう。もう動き出したのは止まらないし、誰も変えられない。我々20代からすれば抑圧者はいだって女性である

感情的に書き殴ったが、以上が今のAAに対する素直な気持ちである。これだけ間違っていても私は科学が大好きなので、科学をしながら家族と生きていける未来模索していこうと思う。

改めて言おう。AAなんてクソ喰らえ

2022-10-22

AUTOMATIC1111に追加された「Clip Aesthetic」わからん

AUTOMATIC1111のgithubのやり取り、リクエスト元のforkの説明なども見たがわからん


取り敢えず出来てることは、「laion_7plus」入れて、「Aesthetic weight」「Aesthetic steps」を振ると、出力は変わる。

bilibiliの記事を参考にすると、「Aesthetic weight」を0.2以上より上げていくと、プロンプトとは異なる絵が出てくるということで、やってみたら変わった。

https://www.bilibili.com/read/cv19102552?from=articleDetail


「Aesthetic steps」は効いてるのかよくわからん

コマンドプロンプトログを見てると、画像生成前に実行しているらしく、「Aesthetic steps」×4回処理が追加入るので、1枚あたりの生成時間が長くなる。

画像生成時よりit/sが大きいので、最大の50にしてもすぐではあるのだが、効いてるかわからん


より謎なのは

  1. 「Slerp interpolation」
  2. 「Aesthetic text for imgs」
  3. 「Slerp angle」

で、「Aesthetic text for imgs」になんのテキストを入れるのかさっぱりだ。

他は振ってみたが効果はわからなかった。


.ptファイル自分で作ることも出来るらしく、ソースとなる画像フォルダ指定して、Createボタンを押すと一瞬で作成される。

.ptファイルサイズは4KB。

数秒で終わるらしく、これまでのhypernetwork、TIだと数十分~はかかってたので、すぐ終わるのがわからん

Batch sizeも振ってみたが、どうなっているかからない。

作成した物を使うと、たしかに変わるが目の色が変わる程度。

「laion_7plus」だと大きく変わるので、差が何処で生まれてるのかがわからない。


みんなよくついていけてるな・・・

2022-10-21

ff14疲れたので休止することにした。戻るかはわからない。

大半のコンテンツ新規PTプレイに入ってくるにはUIや各種設定のカスタマイズが済んでいる事が大前提

新規先行者プレイヤーと同じ体験をすることができなくなっている(漆黒時代ボスBGM変更による演出改変は死に値する)

アクション説明を「どうせ皆読まないで感覚で遊ぶんだから間違ってても平気w」くらいのノリでリリースされると裏取りで解析くらいしたくなるからリリース品質上げてくれませんか

問題あるユーザーが発生した時に通報マターでしか動かんのなら保身のための追加規約なんぞ作ってんじゃないよ

運営側自発的調査して対処してれば君だけ部外者一味みたいなのは今頃拡散して生き残ってないし、そういう事ができるように作った規約ならまずサポート仕事しないんですか?

配信で群がる映りたがりのゴミ共も掃除する気ないね

2022-10-16

NovelAIが重すぎるからローカル環境にNAI環境を構築する(2022年10月16日版)(追記あり)

せっかく課金したのにユーザが増えまくっているのか滅茶苦茶重くなっていて最悪。

から流出したモデルを使ってローカルでNAI環境を構築する。

ネットには情報もだいぶ転がってるけど陳腐化した情報があまりに多いため増田にまとめることにした。

しかたらこ記事もすでに陳腐化しているかもしれないが…単純に間違ってたらトラバで教えてほしい。

もちろん自己責任。この記事を見て導入した結果何かあっても増田は何も保証しない。

英語がわかる人はこっちを見た方が早いと思う。今は導入RTAができるくらい導入は楽になっている。

https://rentry.org/nai-speedrun

推奨環境

VRAMが2GB以上あるNVIDIA製のグラフィックボードがあればローカル環境を構築できる。

GPU世代はGTX700シリーズ以降。なので一昔前のミドル級ボードでも動作するらしい。

IntelオンボードGPUでも実行する方法があるらしい(stable_diffusion.openvino)が今回は割愛する。自分で探してね。

その他の推奨環境は以下の通り。

対応OSWindows7以上(と言うがM1Macでも動作する方法があるとかなんとか)

必要な空きストレージ容量:20GB以上

インメモリ:16GB以上(VRAMもたくさん必要だが起動時にメインメモリも大量に食う。WebUI起動時にタスクマネージャを見ているとよくわかる)

スマホしか持ってないような人やこういうのがよくわからない人はNovelAIを使った方が良いと思う。

今は重いけど、きっとそのうちみんな飽きてサーバも軽くなるかもしれないし。

(追記)NovelAIリソースを確保してサーバが軽くなったかリスクを背負ってまで導入しなくても良いか

手順1:PythonGitを導入する

(追記)Pythonは当然3系。最新の奴を入れれば問題無い。

導入方法はいちいち書かないけど、「python --version」や「git -v」で

正常にバージョン情報が出る(パスがきちんと通っている)ことはちゃん確認しよう。

手順2:Stable Diffusion web UI(AUTOMATIC1111)を導入する

Stable Diffusion web UIはStable Diffusionやそれをベースとした画像生成AIを利用するためのフロントエンド

その中でも特に開発が活発でデファクトスタンダードとなっているのがAUTOMATIC1111版だ。

導入したい適当ディレクトリに対してPowerShellなどで

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

とやってやれば必要ファイルの導入が行われる。

なお、AUTOMATIC1111版は数時間単位コミットが行われるから

定期的に「git pull origin master」で更新しよう。

手順3:BitTorrent流出モデルダウンロードする

クライアントはqBitTorrentが一番楽だと思う。

ここにはさすがにmagnetリンクは書かないか各自ググって欲しい。

結構誤解されがちなことだが流出データ50GBを全部ダウンロードする必要は無い。

必要ファイルはanimefull-final-prunedディレクトリの中身とanimevae.ptから5GBちょっとくらいなんじゃないかな。

もし余裕があるならmoduleディレクトリの中身もダウンロードすればいいけど、ぶっちゃけ必要無いんじゃないか

手順4:ダウンロードした各ファイルリネーム・移動

まずはanimefull-final-prunedの中身のファイルリネーム

model.ckpt」を「animefinal-full-pruned.ckpt」のようなわかりやす名前にして、

「animevae.pt」を例えば「animefinal-full-pruned.vae.pt」のような拡張子以外は同じファイル名にする。

WebUI起動フォルダ配下の\models\Stable-diffusionリネームしたファイルを移動させれば配置はOK

ちなみにmoduleディレクトリの中身は\models\hypernetworksに移動させて使う。

それらのファイルを設定で適用させると画風が結構変わるがNovelAI再現とは関係無いみたいだ。

(追記)moduleディレクトリの中身の.ptファイルはhypernetworksという技術によって画風などを学習したものらしい。

すでに複数イラストレーターの画風を学習したptファイル作成されており議論を呼んでいる。

手順5:webui-user.batの中身に設定を追加する

自分グラボのVRAMが4GB未満の場合は「set COMMANDLINE_ARGS=」の後に

4GB未満の場合は「--medvram」、2GB未満の場合は「--lowvram」とパラメータを追加しておこう。

自分の持ってるグラボのVRAMがわからないときGPU-Zなどで調べよう。

またGTX1600系固有のバグ(単色の画像が出力される)があるらしいので

その場合は「--no-half-vae」もしくは「--no-half」や「--precision full」とパラメータを追加。

ちなみにパラメータに「--xformers」を追加してxformersを導入・使用すると

消費VRAMが減って画像生成処理時間も短縮されるので是非導入しよう。

画像からdanbooruタグAI調査するdeepdanbooruを利用する場合は「--deepdanbooru」を追加。

これらの設定は同時に複数適用させることもできる。例えば

set COMMANDLINE_ARGS=--medvram --xformers --deepdanbooru

のようになる。

手順6:webui-user.bat起動、設定変更

ターミナルPowerShellなどでwebui-user.batを起動しwebUIの初期導入と起動を行う。

過去には手動でCUDA等を導入する必要があったが、現在はこの初期導入でだいたいの導入が行われる。

ずいぶん楽にはなったがその分初期導入の時間結構長い。10分~20分くらいかかるかもしれない。

途中で導入処理がエラーで止まってしまった場合管理者権限で実行するなどして対応して欲しい。

起動ができたらSettingで以下の設定を変更してNovelAIに近づける。

Stop At last layers of CLIP modelを2に、

Eta noise seed deltaを31337にする。

これで設定は完了

おまけ:アスカテスト

設定を合わせて完全にNovelAIと同じ内容になったのかを確認するテストがある。

出力結果から海外じゃHallo Asuka Testなんて呼ばれている。

これは初期SEEDをはじめとする設定内容が完全に一致していれば同じ出力結果を得られる仕組みを利用している。

プロンプトの内容:masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair

ネガティブプロンプトの内容:lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name

サンプリングステップ数:28

サンプリング形式:Euler

CFG Scale(プロンプトの強度):12

初期Seed2870305590

この内容で見事下の画像と全く同じ画像が出力されれば合格だ。

https://i.imgur.com/Bfl5qJB.jpg

なお、このテストはAUTOMATIC1111のバージョンやxformersの適用状態によっては微妙に違う画像が出力されることがあるらしい。

xformersを適用させている増田環境だと確かに二つ並べると間違い探しレベルの違いがあった。

正直このテストクリアしなくても十分だと個人的には思う。

おまけ2:その他便利になる設定や拡張機能

「Booru tag autocompletion for A1111」を導入すればNovelAIのように自動danbooruタグを保管してくれる。

注意

画像生成AIモデルはStable DiffusionOSSのため派生結構多い。

自前で追加学習もできるため自前で学習した追加AIモデル4chanのような掲示板などで共有する人もいるらしい。

しかしそのようなモデルの中にウィルスのような悪意のある動作を行うものもあるらしい。

FBIペドフィリア一網打尽にするためにIPアドレスなどの個人情報を抜き出す動作を行うロリ特化AIモデル掲示板で配布していて

しかもそれには本物の児童ポルノ教師データとして使われている…などという都市伝説的な話が今界隈を賑わせている。

それが本当の話かどうかはわからないが、とにかく変なところからモデルダウンロードするのは危険なのでやめよう。

自己矛盾溢れる注意喚起かもしれないが…

2022-10-08

結局、NovelAIの独自技術ってなんだったんだ?

NovelAIのgithubからリークした。

掲示板などを読んでみると、単純にStable Diffusionアニメ絵学習させただけではなさそうだった。

アニメ画像学習させた.ckpt(GB単位)と、付属データらしい.vae.pt(数百MB)と、更にhypernetworkという新しい単語が出てきて、.ptファイルというのもあるらしい。

.pt既存のTextual inversionでも使われている拡張子なのだが同じだろうか。


hypernetworkを読み込ませないと、崩れたアニメ絵が出てくるようだ。

NovelAI側のヘルプを見ると、プロンプトの最初に『masterpiece, best quality,』をつけるとクオリティが上がるらしく、拡張する時に追加しているキーワードなのかもしれない。


で、結局NovelAIはどうやって実現しているのか。

拡散モデル研究している人も知りたいというツイートをみたので論文にない独自方法なのか?

vae.ptというファイルからの推測だとVAE学習させてるのかな?


追記

どうやらhypernetworksという技術を追加で使っているらしい。

AUTOMATIC 1111にhypernetworksに関する実装が追加されている。現在gitブランチでhypernetworksトレーニングコード実装開始されている。

掲示板などを見ていくと、prompt最初に{masterpiece}を最初につけないと、いわゆるNovelAIっぽいアニメ絵にならないらしい。

{masterpiece}をつけない場合キャラ名は認識しているっぽいが、WaifuDiffusionっぽい崩れた画像が出てくるようだ。(アニメ画像学習した.ckptだけで動作し、.vae.ptは動いてない?hypernetworksが効いてない?)

キャラ名については、同一名で作品が違うという場合があるので、おそらく学習時に別の単語に置き換えていると想像する。(NovelAIでキャラ名を入れた際に候補が出るが、変換しているはず)


他にpromptトークン数をNovelAIは拡張している。

StableDiffusionの75トークンは、512x512の画像との対応付けから来ているというのが、付け焼き刃の知識での理解なのだが、どう対応付けしているのか。

最初に{masterpiece}があった場合フラグONにして、CLIPに渡すときは{masterpiece}を除外ってのは想像できるが、それでもトークンが余る。


Waifu Diffusion V1.3がリリースされ、学習する枚数を増やしたが、掲示板などに貼り付けてあるものを見る限り、まだ手は改善されてない。

最終リリース前(epoch5,6?)のものとの比較した画像も流れているが、見ても違いはわからない。

Stable DiffusionがDiffusion modelで精度が高い先端モデルとされているが、単純に学習枚数だけ増やしても手は描けない、ということではないだろうか。

追記

NovelAIが解説記事をあげていた。

https://blog.novelai.net/novelai-improvements-on-stable-diffusion-e10d38db82ac

2022-09-18

国主導で命の危険の無いデスゲームがやりたい

まずマイナンバーカードを取得した人は国からデスゲームポイント(以下ptと略する)を貰えるようにする

一回こっきりptを貰えるのでもいいし定期的にptゼロの人が1000pt貰えるとかでもいい

そして国が指定したデスゲームプレイスでのみptの増減のあるゲームで人々が対戦できるようにする

ゲームの結果ptが増減したらその値を国が記録して管理する

ptゼロの人はデスゲームプレイスゲームが出来なくなる

ゲームは国が委託するのでもいいし各種メーカーが国に許可とってデスゲームプレイスで開催するのでもいい

最初は皆等しいptだけ与えられれば平等

ptゼロになったらもうゲームプレイできなくなるという緊張感がデスゲームをやってる気分になれる

デスゲームプレイスに一々入るのに国が入場料をとったりデスゲームトッププレイヤー達がプレイする様子を

有料で配信したりなど収支をプラスに出来る方法もあるだろう

国主催の安全なデスゲームやらせてくれ

ログイン ユーザー登録
ようこそ ゲスト さん