はてなキーワード: 再現とは
黒人エルフは擁護不可能なクソポリコレとしても、アリエルなんて元々褐色肌だし、実写版の配役もかなり妥当なんだよな。
それでもなぜケチがつくかと言えば、みんなポリコレが嫌いなんじゃなくて、「二次元が三次元になった時の劣化」が嫌いなだけじゃなかろうか。
これを解決するためには「実写化には期待しない」こと以外にないと思う。
どれだけ頑張ってイメージを再現しようが、実写がアニメを超えることは無いし、追いつくこともない。
これを認めるしかない。
でもさ私思ったの、
このキンモクセイの香りってトイレの芳香剤の臭いだから苦手!って人多いじゃない、
でも実際に
一生一緒にいてくれや~の曲をフルコーラスで聞いたことないように
実は存在してなくない?
もはや都市伝説級に!
そんなのない!って私も思っていた時代があったんだけど、
消臭力のキンモクセイの香りで西川貴教さんがハーレーダビッドソンみたいなバイクにまたがった販促シールが貼ってあるキンモクセイの香りの芳香剤!
なんでバイクにまたがっている西川貴教さんのシールを販売促進のシールに貼る?って
なんだか思い出すとジワジワくるわ。
これを道端に置いて
どこからとなくそこはかとキンモクセイの木が無いのにキンモクセイの香りする!ってなったらもはやキンモクセイじゃない?
でも合成キンモクセイの匂い成分を完全に人間が再現するってテクノロジーが逆に思ったら凄いんだけど。
香りを再現するっていったい簡単に私たちはなんとかのニオイ!って言うけど、
本当のキンモクセイの香りなのか芳香剤のキンモクセイの香りなのかもはや嗅ぎ分けることは不可能なレヴェルで再現出来ているのって凄いと思うわ。
どういった仕組みになってるのかしらね?
単純にキンモクセイの花を収穫するキンモクセイ畑ってのがあって、
茶摘みみたいに茶摘みガールがお茶を摘む的なそれのキンモクセイの花版の花摘みってのをやってるとは思えないけど、
もはやヨーロッパのワインの産地で美女が葡萄で満載された樽で素足で葡萄を踏んでいるシーンを彷彿させるように、
きっとそんなことはやってないファンタジーなのかもしれない。
いったいどんなテクノロジーでキンモクセイの香りを完コピしているのかしら?って思っちゃうわ。
研究者がそれみろ凄いだろ!キンモクセイの香り完コピだ!やったー!って大喜びしている姿が目に浮かぶのよ。
モノホンのキンモクセイの香りとフェイクキンモクセイの香りって嗅ぎ分けられる技を持っていると思うと
また上には上がいるって頂上決戦になる話しじゃない。
そんでよくよく考えてみたら、
あの石鹸の香りってなに?ってオリジナルはそんな花の香りとか無いし
街中を歩いていて
石鹸の香りのイメージ戦略は石鹸として間違いなかったって事だし、
キノコで言ったら
そう言うのなら仕方ないわよね。
3位!シイタケ!
2位!エリンギ
1位は!ジャン!シメジよ!
示し合わせたようにみごと1位!
エノキダケは歯に挟まるし、
舞茸は美味しいけど、
鍋に入れると色が出てルーシーが真っ黒になるし
私の中ではシメジ最強説があるのよね。
だから
神社のちょっとじめっとした裏側の木の切り株なんかに野生のシメジが自生しているのを発見しても
美味しそう!って飛びつかないじゃない、
でもちょっと美味しそうには見えるけど
うかつに自生しているシメジを信じてシメジと思って食べるのはあまりにも危険すぎるわ。
それで、
もうあのお吸い物最強説も否めないから、
松茸を食べるならシイタケを酒蒸しして食べた方がよっぽとお酒のおつまみになるわ!
あ!
で、その松茸のお吸い物の粉末をシイタケにふりかけて酒蒸ししたら、
もはや松茸になるんじゃない?
老舗旅館でさ歴史ある本館を越える最近出来た別館のクオリティーで
きっと青い固形燃料で炊く釜飯にしたら誰もが松茸だと信じること請け合いよね。
うふふ。
軽くあっさりしたものをフレッシュレタスでシャキシャキ朝からご機嫌さんよ!
朝はそうこなくっちゃ!って感じの今日の占いラッキーアイテムはレタスサンドだったからできすぎた話しよね。
今朝は寒いけど、
どうかんがえても松茸のお吸い物ホッツウォーラーはおかずのジャンルなので、
着るものが難しいけどね。
気をつけましょう。
すいすいすいようび~
今日も頑張りましょう!
せっかく課金したのにユーザが増えまくっているのか滅茶苦茶重くなっていて最悪。
だから流出したモデルを使ってローカルでNAIの環境を構築する。
ネットには情報もだいぶ転がってるけど陳腐化した情報があまりに多いため増田にまとめることにした。
もしかしたらこの記事もすでに陳腐化しているかもしれないが…単純に間違ってたらトラバで教えてほしい。
もちろん自己責任。この記事を見て導入した結果何かあっても増田は何も保証しない。
英語がわかる人はこっちを見た方が早いと思う。今は導入RTAができるくらい導入は楽になっている。
https://rentry.org/nai-speedrun
VRAMが2GB以上あるNVIDIA製のグラフィックボードがあればローカル環境を構築できる。
GPUの世代はGTX700シリーズ以降。なので一昔前のミドル級ボードでも動作するらしい。
IntelのオンボードGPUでも実行する方法があるらしい(stable_diffusion.openvino)が今回は割愛する。自分で探してね。
その他の推奨環境は以下の通り。
対応OS:Windows7以上(と言うがM1Macでも動作する方法があるとかなんとか)
メインメモリ:16GB以上(VRAMもたくさん必要だが起動時にメインメモリも大量に食う。WebUI起動時にタスクマネージャを見ているとよくわかる)
スマホしか持ってないような人やこういうのがよくわからない人はNovelAIを使った方が良いと思う。
今は重いけど、きっとそのうちみんな飽きてサーバも軽くなるかもしれないし。
(追記)NovelAIがリソースを確保してサーバが軽くなったからリスクを背負ってまで導入しなくても良いかも
(追記)Pythonは当然3系。最新の奴を入れれば問題無い。
導入方法はいちいち書かないけど、「python --version」や「git -v」で
正常にバージョン情報が出る(パスがきちんと通っている)ことはちゃんと確認しよう。
Stable Diffusion web UIはStable Diffusionやそれをベースとした画像生成AIを利用するためのフロントエンド。
その中でも特に開発が活発でデファクトスタンダードとなっているのがAUTOMATIC1111版だ。
導入したい適当なディレクトリに対してPowerShellなどで
「git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git」
なお、AUTOMATIC1111版は数時間単位でコミットが行われるから
定期的に「git pull origin master」で更新しよう。
クライアントはqBitTorrentが一番楽だと思う。
ここにはさすがにmagnetリンクは書かないから各自ググって欲しい。
結構誤解されがちなことだが流出データ50GBを全部ダウンロードする必要は無い。
必要なファイルはanimefull-final-prunedディレクトリの中身とanimevae.ptだから5GBちょっとくらいなんじゃないかな。
もし余裕があるならmoduleディレクトリの中身もダウンロードすればいいけど、ぶっちゃけ必要無いんじゃないか?
まずはanimefull-final-prunedの中身のファイルをリネーム。
「model.ckpt」を「animefinal-full-pruned.ckpt」のようなわかりやすい名前にして、
「animevae.pt」を例えば「animefinal-full-pruned.vae.pt」のような拡張子以外は同じファイル名にする。
WebUI起動フォルダ配下の\models\Stable-diffusionにリネームしたファイルを移動させれば配置はOK。
ちなみにmoduleディレクトリの中身は\models\hypernetworksに移動させて使う。
それらのファイルを設定で適用させると画風が結構変わるがNovelAI再現とは関係無いみたいだ。
(追記)moduleディレクトリの中身の.ptファイルはhypernetworksという技術によって画風などを学習したものらしい。
すでに複数のイラストレーターの画風を学習したptファイルが作成されており議論を呼んでいる。
自分のグラボのVRAMが4GB未満の場合は「set COMMANDLINE_ARGS=」の後に
4GB未満の場合は「--medvram」、2GB未満の場合は「--lowvram」とパラメータを追加しておこう。
自分の持ってるグラボのVRAMがわからないときはGPU-Zなどで調べよう。
またGTX1600系固有のバグ(単色の画像が出力される)があるらしいので
その場合は「--no-half-vae」もしくは「--no-half」や「--precision full」とパラメータを追加。
ちなみにパラメータに「--xformers」を追加してxformersを導入・使用すると
消費VRAMが減って画像生成処理時間も短縮されるので是非導入しよう。
画像からdanbooruのタグをAIで調査するdeepdanbooruを利用する場合は「--deepdanbooru」を追加。
のようになる。
ターミナルやPowerShellなどでwebui-user.batを起動しwebUIの初期導入と起動を行う。
過去には手動でCUDA等を導入する必要があったが、現在はこの初期導入でだいたいの導入が行われる。
ずいぶん楽にはなったがその分初期導入の時間は結構長い。10分~20分くらいかかるかもしれない。
途中で導入処理がエラーで止まってしまった場合は管理者権限で実行するなどして対応して欲しい。
起動ができたらSettingで以下の設定を変更してNovelAIに近づける。
Stop At last layers of CLIP modelを2に、
Eta noise seed deltaを31337にする。
これで設定は完了!
設定を合わせて完全にNovelAIと同じ内容になったのかを確認するテストがある。
出力結果から海外じゃHallo Asuka Testなんて呼ばれている。
これは初期SEEDをはじめとする設定内容が完全に一致していれば同じ出力結果を得られる仕組みを利用している。
プロンプトの内容:masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
ネガティブプロンプトの内容:lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
https://i.imgur.com/Bfl5qJB.jpg
なお、このテストはAUTOMATIC1111のバージョンやxformersの適用状態によっては微妙に違う画像が出力されることがあるらしい。
xformersを適用させている増田の環境だと確かに二つ並べると間違い探しレベルの違いがあった。
「Booru tag autocompletion for A1111」を導入すればNovelAIのように自動でdanbooruのタグを保管してくれる。
画像生成AIモデルはStable DiffusionがOSSのため派生が結構多い。
自前で追加学習もできるため自前で学習した追加AIモデルを4chanのような掲示板などで共有する人もいるらしい。
しかしそのようなモデルの中にウィルスのような悪意のある動作を行うものもあるらしい。
FBIがペドフィリアを一網打尽にするためにIPアドレスなどの個人情報を抜き出す動作を行うロリ特化AIモデルを掲示板で配布していて
しかもそれには本物の児童ポルノが教師データとして使われている…などという都市伝説的な話が今界隈を賑わせている。
白人警官が無抵抗の黒人を殺すシーンをみたら、悲しむ黒人がいる。真似する白人がいる。
だから、過去の史実をいかなる理由でも再現すらしてはならない。
といい、
まともな表現規制派は、
過去の史実すら再現しないのでは、差別があったこと、今もあることを忘れてしまうのよくない。
と考えるのです。
それを元増田に例えるとして、差別がある事を描く為の巨乳表現とは…?
例えば巨乳をネタにするセクハラ男が作品内で悪とされ制裁されるストーリーなら文句つけられる事はないと思うが
(勿論、ただ最後に言い訳として制裁ネタがオチとしてつくだけの巨乳=男向けの性的サービスとして描写してる作品、は別として)
ここで誰もそんな話してなくね?
黒人差別はした方が良い というニュアンスがあるのかで、解釈は変わりますよね。
過去の史実に似せてリアリティを上げているだけなら、誰もがそれは良くないことだと理解しているのでOK
白人警官になりきって黒人を殺しまくることを楽しむゲームならNG
なわけです。
その違いは、被害者側に注目すると、何もありません。ただ無抵抗な黒人が殺されるだけです。
一方加害者側は、前者ならおそらく罰せられるだろうという予想がつき、
白人警官が無抵抗の黒人を殺すシーンをみたら、悲しむ黒人がいる。真似する白人がいる。
だから、過去の史実をいかなる理由でも再現すらしてはならない。
といい、
まともな表現規制派は、
過去の史実すら再現しないのでは、差別があったこと、今もあることを忘れてしまうのよくない。
と考えるのです。
青空文庫に掲載済み→ https://www.aozora.gr.jp/cards/000207/files/357_22446.html
正直、10人が読んだら9人以上は「面白くない」と言うような気がする。
でも、大人になって以降、自分にとっては、あらゆる小説の中で『外套』が最高峰にある。
箸にも棒にも引っかからないような人間に、どれだけの尊さが詰まっているかを、これ以上ないほどの解像度で描いている。
訳注を入れても文庫で53ページしかない短編なので、読んでもらえたら嬉しい。
青空文庫に掲載済み→ https://www.aozora.gr.jp/cards/001799/files/56638_61335.html
大人になるとわからなくなってしまう、子供から見た世界を、世界中の誰も真似できないくらい生き生きと描き出している。
ただ、そのせいで、この作品の真価を理解できる大人はとても少ないと思う。
自分はこれを小学生の時に読んで、この作品は大人の文章力としても凄いくらいなのに、子供の感覚をあまりにそのまま、手触りや空気まで再現されてしまうくらい鮮烈に、それこそ子供が一心不乱に遊ぶ時のような底なしの没入感で描いていて、恐怖を覚えるほど驚き感動した。
それなのに、中学生の時にはもう、読み手としての解像度が決定的に劣化していて、以前ほど理解できなくなってしまった。
でも、例えば夏目漱石はこれを読んで「子供の世界の描写として未曾有のもの」と激賞したらしいから、わかる人もどこかにはいるだろうし、なにかのきっかけで子供の人に伝わると嬉しいから、書く。
過去は変えられないしやり直しもきかないよ
だから可能性を減らさないようにすることが大事だって文化の醸成もあるんだ
生クリームとか卵とか小麦粉とか素材のまま売り出してるものがあるよね
すでにパンとして形成されて発酵したものとか焼いたもの味付けしたものなんかもあるね
卵焼きはたまごかけごはんには使えないしケーキの材料にも使えないしすき焼きにも使えない
パンとしてあとは焼くだけになった小麦粉はもうほかには使えないね
選択肢がもう必要がないものもたくさんあるよ 調理済みのものみたいにね
とりかえしがつかないのは たまごやきが「生卵だったらよかったのに」という選択肢ができないことなんだ
もどるとかもどらないとかその文字どおりの時間をさかのぼったり道を逆行したりすることじゃないんだ
選択肢の分岐点が再度やってくるかどうか再現の可能性があるかどうかのことを「とりもどす」と言っているだけで実際は2回目の選択
メタ視すれば「選択」という単語だけでいえば一度過去にあったものが再度できる再現であり再生で再びやってきたように思う体感を含めて「戻し」としてるけど
戻ってきてるわけじゃないんだ
もちろん生卵だって焼いたらたまごやきになって終わってしまうよ
人生経験のあるなしとかは積み重なっているかどうかはかわらないしみんな中身は同じだし能力だって見た目に比例するとは限らない
でも「ここで生卵をつかいましょう」という選択肢にたまごやきはつかえないんだ
もう公共で肌をさらすことはないとかアクセサリーが問題になる場所にはいかないとかそういう職を選ばないというならなんの問題はないよ
自分のなにかを刻み込むのはいいけど 刻んだ特別なそれになることだからね
① 権利関連
生まれ落ちた瞬間から2022年の絵柄を生まれ持ったギフトテッドなど存在しない
個々人に差異はあるが、そのどれもいくつかの流れに回収できる程度の差異だ
きらら系で顕著な鼻点顔とか、亜種が沢山いるが、「私が始まりだ、私の絵柄なのだ」と言える人、いるのか?
人が行うなら許されるそれを、「AIがやるのは倫理的に許されない」と言う人の理屈が分からない
気持ちはわかるがね
② 絵師終了関連
これについては眉唾だ
漫画家で食っていける人数で考えたら、漫画家なんて目指した瞬間に終わってる
音楽教室と言っても限界あるし、場を借りてコンサートするなら、チケット売らなきゃ大赤字だ
声優はどうだ?
なんで、絵師が始まってる事になってるんだろう?
もともと絵師は終わってた
形は変わるだろうけれど終わりはしないと思う
ノートに鉛筆で描いていた時代から、PCでやり直し自由に描けるようになって
AIの出力を調整して、そのセンスがすごい人が絵師を名乗るようになるのかもしれない
頭の中にある「自分の絵」を再現するためのコストが下がって、思わぬ人が神絵師になれるかもしれない
今の「自分で描いた」ことに見出してる価値基準が変わるのなんて、すぐだと思うよ
④ 個人的総括
AIができたらからといって、脳内美丈夫や脳内益荒男の価値が失われたりしない
もうちょっと技術が進んだら、今よりアウトプットする人口が増えて表現が広がる気がしている
「その文書の地域で何が起こっているのか?文書は人々からどのように受け止められているのか?文書の何が神経を逆なでするのか」について分析するという話を聞いたことがある。「文学的インフラ」とは、文学を資源として活用し、たとえば何らかの現象を予測するといった発想だ。物理現象を予測できないかもしれなが、社会現象ならどうか。
こういうものを評価してテキストのリスクを判別するというプロジェクトに聞き覚えがある。ユルゲン・ヴェルトハイマーという人は「作家は、読者が即座に世界を想像し、その中に自分自身を認識できるような方法で現実を表現する」と述べている。
例えば、以下のアルジェリアの例がある。
何が言いたいかというと、増田コーパスを使えば何かしらの社会現象の予兆を見つけることができるのではないか、ということ。
確かに「時間、場所、事象を非常に具体的なレベルで予測」となると不可能かもしれないが、「特定の政党の支持率」「どのような哲学主義が好まれているか」「どの国との関係性が良かったり悪かったりするのか」「自殺率が増加するのか減少するのか、凶悪犯罪はどうか」「博士課程に対する社会の許容度はどうか」といった大雑把なレベルなら予測できることがあるのではないか。
昔、といっても10年前くらいまではまだ料理ができるのを自慢できた
インターネットにレシピは溢れかえっていたけどレシピだけで作れない人種が一定数いたから
今、インターネットにはレシピどころか作る過程を動画で、無料で、好きなだけ見ることができる
見たまま実行するだけで誰でも料理できる
もう素人レベルの「料理ができる」は自慢にならない、できないを恥じる時代になってしまった
もっともっと昔、親に聞くか本を読むかでしかレシピがわからない時代なら幾らでも自慢できた料理経験者、令和の今なら無限大にいるだろうなあ
:追記