はてなキーワード: サンプリングとは
そう言えばバッド・バニー(Bad Bunny)が♪今日はセクースしたーい、と歌った“Yonaguni(ヨナグニ)”がホテントリしてたなと思い出しつつ。
これだこれ(↓これ書いたのは自分じゃないです)。あ、去年の話だったわ。
The Chainsmokersの“I Love U”
ラジオではヘビロテされてたが、はてな界隈ではそんなに話題になんなかったな。
「イケイケ団長!」『グラブル』クラリスの声をサンプリングした経緯をザ・チェインスモーカーズが明かす - フロントロウ
front-row.jp/_ct/17549305
ザ・チェインスモーカーズの新曲「アイ・ラヴ・ユー」の冒頭と中盤で響きわたる「イケイケ団長、ガンバレガンバレ団長!」という日本語。~これは株式会社Cygamesと株式会社CyDesignationの共同制作によるソーシャルゲーム『グランブルーファンタジー』に登場するキャラクター、クラリスの声をサンプリングしたもの。
The Chainsmokers - I Love U (Japanese Lyric Video)
www.youtube.com/watch?v=Wh1bXssmBKA
リミックスとかじゃなく、「イケイケ団長、ガンバレガンバレ団長!」入ってるこれがオリジナルバージョン。
ラジオで初めて聞いた時、てっきり日本でDJがリミックスでもしたのかと。
オバマ元米大統領 2022年のお気に入り曲をまとめたプレイリスト公開 - amass
amass.jp/163387/
から。
第65回グラミー賞の「最優秀新人賞」にノミネートされたオマー・アポロの「タマゴッチ」。
ファレル・ウィリアムスとチャド・ヒューゴのプロデュース。
なのに再生回数まだそんな伸びてない。
www.youtube.com/watch?v=8lwdjNS8Ixk
スペインのシンガーソングライター、ロザリア。
オバマ元大統領は別の曲を推してたが、日本語絡みで「チキン・テリヤキ」。
CHICKEN TERIYAKI - ROSALÍA《和訳》 | おこめのブログ
ameblo.jp/carastiffany/entry-12769209019.html
きみには何もない、あるのはてりやきチキンだけ あっちで泣いてろ
ROSALÍA - CHICKEN TERIYAKI
www.youtube.com/watch?v=OG4gq9fCoRE
サビの部分のダンス、TikTokで流行りそうな気も。もう既に流行ってたりする?知らんけど。
ロザリアでもう1曲。「ヘンタイ」。
HENTAI - ROSALÍA《和訳》 | おこめのブログ
ameblo.jp/carastiffany/entry-12770032901.html
意味はそのまま「ヘンタイ」ですが、これに「変質者」などそういうネガティブな意味は含まれていません。外国語での「ヘンタイ」は、「日本のアダルトアニメや成人向け漫画、ギャルゲやエロゲ、又はその画風を模倣したもの」を指しているからです。
ROSALÍA - HENTAI
www.youtube.com/watch?v=_6YCNd3ONUU
Rosalía 『Hentai』女性主導女性目線のセックス観 全裸監督 - 電子計算機舞踏音楽
senotic.hatenablog.com/entry/rosaliahentai
例えば、研究でオシロスコープでデータを取得して、そのデータ処理・管理について、あまり良い方法が共有されてない。
ピコセカンドでサンプリングしたものを時系列データとして扱うとなると、ピコセカンドが対応してなかったり、
パソコン上で信号の立ち上がり時間の統計情報を処理するのに苦労するとか、
まぁ色々と足りてない。
OSに任せてファイル管理ってのはまだいいが、例えばデータベース化しようとすると、
電圧や他の条件と、装置データを紐づけての整理は手探りだったりする。
測定データ処理してグラフを作るってのでも、癖のあるCERNのPyROOTに頼らないといけないとか、良くなってる気がしない。
藤田咲さんがソフトの趣旨を理解したうえで利用に同意してくれてるからだろ
逆に言えば、当初はなかなか理解が得られなくてサンプリングしてくれる人がいなくて、やっと実用化に協力してくれたのが藤田咲さんだっていうし
自分は両方やってるんですが(たまにお金貰えるけど専業は無理なレベル)2つの村でAIが話題になるたび結構反応が違うのが面白いです。
簡単に言うと、絵師の人達はAIに対して厳しめで、ミュージシャンの人達はゆるめ。
絵師の中では、反対派はもちろんたとえAI肯定派の人達も「補助ツールとしてなら」「AIオンリーやちょっと手を加えた程度の場合は明記するべき」「学習される側の権利は守るべき」くらいの立場の人が多い印象です(もちろん全部完璧に正論です)
ミュージシャンの場合、上のような「条件」も「まあそんな気にしなくて良くね?」と思ってる人がそこそこ多い。
なんでそうなるかって言うと、音楽の場合そこら辺の意識(美意識?)がガバガバな作り方が良くも悪くももう既に市民権を得ちゃってるからだと思います。
AIによる作曲はまだそこまで強くない(簡単なBGM程度や補助ならいけるけどかっこいい曲がパッと出てくるのはまだあまり実現してない)ですが、補助としては強力ですし使ってる人はいますしそれをいちいち明記しません。
それにAI以外でも「一から自分でやるのに比べてすごく簡単に作れちゃうやり方」がもうありますし多くの人が使ってます。
あ、最近この手の議論でよくボカロが例えに出てるのを見ますけど、ボカロとAIはわりと距離遠いと思います。あれはもう全然簡単ではなくて、普通にめちゃくちゃ技術が必要な打ち込みツールです。パッとできるものでは全くない。歌えるなら歌う方が簡単なレベルです。
「簡単度合い」で言えば例えば一例をあげればサンプリングなんかは近いです。凝った加工をする人もいますが、切り取ってデータを貼って繰り返すだけの場合も多いです。それならボカロの100倍簡単。かつてこの手法自体批判されていた時代もありましたが、今となってはあまり聞きません。
権利的な話でいっても、大手から出す人はさすがに許可取ってますが、インディーズなら無許可で既存の曲からサンプリングして使っちゃってる(ぶっちゃけバレなきゃセーフだよな的な空気がある)人は海外含め沢山いますし、たとえ権利が多少気になる場合でも今は月額で登録できる素材サイト(spliceやLoopcloudというサイトが有名)があるのでそれを使ってる人が大勢います。
そんでその素材もまあ権利的にはクリアってことになってますが「これ明らかにあれじゃん笑」みたいなのがいっぱいあります。イラストで例えるなら「画風の真似」をしてる素材みたいな(著名な演奏家や作曲者が本人シグネチャーとして自作素材を売ってる場合もありますけどね)
音楽を作ったことがない人は、海外のミュージシャンが素材サイトのアプリを利用してペタペタ素材を貼りながら高速で曲を作ってく動画をyoutubeで探して見てみるといいと思います。
ごくシンプルなヒップホップなら5分で、あとはラップ乗せてね〜ってトラックが一個作れますし、それを何も明記せず平気で販売してますし、買う側(ラッパー)も聴く側(リスナー)も気にしていません。
またイラストで例えるなら、線画素材に色を塗って(というより買った線画に合う"色素材"みたいなものもあって貼れちゃうみたいなイメージ)そのまま何も言わずに売るような感じです(絵師さん的な常識からするとビックリですよね)
AIとは違いますしAIよりかはまだ覚える作業はいっぱいありますけど、やっぱり上で書いたように「すごい簡単に作れちゃう」点では近い。一から全部自分でやるのと比べたら。
もちろんそういう便利ツールを全く使わない人からフル活用する人までグラデーションはあります。ですが、少なくとも、何度も書いてるように「フル活用しても何も明記しなくていい」でほぼ決着してるような空気なのはイラスト界とだいぶ違うかなと。良くも悪くも全て横一線です。
他にも演奏のパクり合い文化だったりとか色々あるんですけど、長くなったのでここら辺で。
一方の絵師さん達は、まあ主張はいっぱいTwitterに上がってるので切り上げますが、マッチョだなって思うくらいとにかく色々ちゃんとしてますね。これは悪い意味ではもちろんなく。いやまあ最近は二次創作でfanboxでどうこうみたいなのでモメてたりするのでスネに傷がある人もいるのかもしれませんが…まあ一般的な絵師さんはもうちゃんとしてます。悪い意味ではもちろんなく(2回目)
音楽は上のようなうねりの中で沢山素晴らしい進化を遂げましたが、損してる人達も沢山いますからね。サンプリングされすぎて共有財産みたいになっちゃった昔のミュージシャンが、功績に見合った対価を貰えてなかったりね。まあそれでも自分はミュージシャン側のノリが嫌いではないのですけど。
せっかく課金したのにユーザが増えまくっているのか滅茶苦茶重くなっていて最悪。
だから流出したモデルを使ってローカルでNAIの環境を構築する。
ネットには情報もだいぶ転がってるけど陳腐化した情報があまりに多いため増田にまとめることにした。
もしかしたらこの記事もすでに陳腐化しているかもしれないが…単純に間違ってたらトラバで教えてほしい。
もちろん自己責任。この記事を見て導入した結果何かあっても増田は何も保証しない。
英語がわかる人はこっちを見た方が早いと思う。今は導入RTAができるくらい導入は楽になっている。
https://rentry.org/nai-speedrun
VRAMが2GB以上あるNVIDIA製のグラフィックボードがあればローカル環境を構築できる。
GPUの世代はGTX700シリーズ以降。なので一昔前のミドル級ボードでも動作するらしい。
IntelのオンボードGPUでも実行する方法があるらしい(stable_diffusion.openvino)が今回は割愛する。自分で探してね。
その他の推奨環境は以下の通り。
対応OS:Windows7以上(と言うがM1Macでも動作する方法があるとかなんとか)
メインメモリ:16GB以上(VRAMもたくさん必要だが起動時にメインメモリも大量に食う。WebUI起動時にタスクマネージャを見ているとよくわかる)
スマホしか持ってないような人やこういうのがよくわからない人はNovelAIを使った方が良いと思う。
今は重いけど、きっとそのうちみんな飽きてサーバも軽くなるかもしれないし。
(追記)NovelAIがリソースを確保してサーバが軽くなったからリスクを背負ってまで導入しなくても良いかも
(追記)Pythonは当然3系。最新の奴を入れれば問題無い。
導入方法はいちいち書かないけど、「python --version」や「git -v」で
正常にバージョン情報が出る(パスがきちんと通っている)ことはちゃんと確認しよう。
Stable Diffusion web UIはStable Diffusionやそれをベースとした画像生成AIを利用するためのフロントエンド。
その中でも特に開発が活発でデファクトスタンダードとなっているのがAUTOMATIC1111版だ。
導入したい適当なディレクトリに対してPowerShellなどで
「git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git」
なお、AUTOMATIC1111版は数時間単位でコミットが行われるから
定期的に「git pull origin master」で更新しよう。
クライアントはqBitTorrentが一番楽だと思う。
ここにはさすがにmagnetリンクは書かないから各自ググって欲しい。
結構誤解されがちなことだが流出データ50GBを全部ダウンロードする必要は無い。
必要なファイルはanimefull-final-prunedディレクトリの中身とanimevae.ptだから5GBちょっとくらいなんじゃないかな。
もし余裕があるならmoduleディレクトリの中身もダウンロードすればいいけど、ぶっちゃけ必要無いんじゃないか?
まずはanimefull-final-prunedの中身のファイルをリネーム。
「model.ckpt」を「animefinal-full-pruned.ckpt」のようなわかりやすい名前にして、
「animevae.pt」を例えば「animefinal-full-pruned.vae.pt」のような拡張子以外は同じファイル名にする。
WebUI起動フォルダ配下の\models\Stable-diffusionにリネームしたファイルを移動させれば配置はOK。
ちなみにmoduleディレクトリの中身は\models\hypernetworksに移動させて使う。
それらのファイルを設定で適用させると画風が結構変わるがNovelAI再現とは関係無いみたいだ。
(追記)moduleディレクトリの中身の.ptファイルはhypernetworksという技術によって画風などを学習したものらしい。
すでに複数のイラストレーターの画風を学習したptファイルが作成されており議論を呼んでいる。
自分のグラボのVRAMが4GB未満の場合は「set COMMANDLINE_ARGS=」の後に
4GB未満の場合は「--medvram」、2GB未満の場合は「--lowvram」とパラメータを追加しておこう。
自分の持ってるグラボのVRAMがわからないときはGPU-Zなどで調べよう。
またGTX1600系固有のバグ(単色の画像が出力される)があるらしいので
その場合は「--no-half-vae」もしくは「--no-half」や「--precision full」とパラメータを追加。
ちなみにパラメータに「--xformers」を追加してxformersを導入・使用すると
消費VRAMが減って画像生成処理時間も短縮されるので是非導入しよう。
画像からdanbooruのタグをAIで調査するdeepdanbooruを利用する場合は「--deepdanbooru」を追加。
のようになる。
ターミナルやPowerShellなどでwebui-user.batを起動しwebUIの初期導入と起動を行う。
過去には手動でCUDA等を導入する必要があったが、現在はこの初期導入でだいたいの導入が行われる。
ずいぶん楽にはなったがその分初期導入の時間は結構長い。10分~20分くらいかかるかもしれない。
途中で導入処理がエラーで止まってしまった場合は管理者権限で実行するなどして対応して欲しい。
起動ができたらSettingで以下の設定を変更してNovelAIに近づける。
Stop At last layers of CLIP modelを2に、
Eta noise seed deltaを31337にする。
これで設定は完了!
設定を合わせて完全にNovelAIと同じ内容になったのかを確認するテストがある。
出力結果から海外じゃHallo Asuka Testなんて呼ばれている。
これは初期SEEDをはじめとする設定内容が完全に一致していれば同じ出力結果を得られる仕組みを利用している。
プロンプトの内容:masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
ネガティブプロンプトの内容:lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
https://i.imgur.com/Bfl5qJB.jpg
なお、このテストはAUTOMATIC1111のバージョンやxformersの適用状態によっては微妙に違う画像が出力されることがあるらしい。
xformersを適用させている増田の環境だと確かに二つ並べると間違い探しレベルの違いがあった。
「Booru tag autocompletion for A1111」を導入すればNovelAIのように自動でdanbooruのタグを保管してくれる。
画像生成AIモデルはStable DiffusionがOSSのため派生が結構多い。
自前で追加学習もできるため自前で学習した追加AIモデルを4chanのような掲示板などで共有する人もいるらしい。
しかしそのようなモデルの中にウィルスのような悪意のある動作を行うものもあるらしい。
FBIがペドフィリアを一網打尽にするためにIPアドレスなどの個人情報を抜き出す動作を行うロリ特化AIモデルを掲示板で配布していて
しかもそれには本物の児童ポルノが教師データとして使われている…などという都市伝説的な話が今界隈を賑わせている。
昔から床屋で飛び交う「何センチ切りますか?」という単位系に疑問を感じている。
明らかに1cmが1cmで勘定されていないのである。更に人によってもぶれ方が異なる。
西に1.5cmといいつつ3cmくらいを量り取る理容師がいれば、東に5cmはこのくらいですと人差指と親指をピンと張る者も居る(15cm弱だろうか)。
昔あまりにも時空を歪める店員に堪えかねて、それは私の知ってるセンチメートルじゃないと抗議してしまったことがある。
するとその店員が答えていわく、髪は生えている場所によって伸びるスピードが異なるという。
頭のこのあたりで2cm切ると、一番(伸びるのが)早い部分でこのくらい切ることになります、とのことだったので、なるほどそういうことだったのかと得心し、
じゃあサンプリング地点を明確にして指定しないと何の意味もねぇじゃねえかと今後一生センチメートルでの指定はしないと誓った。
ところが困ったことに「では○センチ位切りますがよろしいですか?」という確認をしてくる奴が結構な頻度でいるのである。
今日世話になったのもこの類で、もうその手は食わんぞと「センチメートルで言われてもわからないので…」と突っ張ってみた。
おじさんは謎の生き物を見る目をしながら1.5cmを指で作ってくれた。親指と人差指が平行だった。
なんとなく、「全体をその長さの分短くするということですか?」と聞いてしまった。これは「いいえ」になるはずの問いであった。