はてなキーワード: アノテーションとは
OpenAIがsoraでテキストから動画生成し話題になった。
モデルがオープンになっているモデルの方が、クローズドなモデルよりも進化する、という意見があったが、差がついたままだ。
何が原因か。
テクニカルペーパー(https://openai.com/research/video-generation-models-as-world-simulators)を見る限り、
予想の範囲内のことしか書かれてない。拡散モデルで画像が出来た時点から、多くの人が想像出来る範囲だろう。
もちろん全部が書かれているわけではないだろうが。
どこで差がついたままなのか。
手がかけない問題に対して、親指、人差し指などを細かく指定すれば解決はするのだろう。
StableDiffusionの学習だとKohya_ssが有名だが、good_hand, bad_handみたいな一言でまとめられているのではないだろうか。
画像をどれだけ言語化できるかで、人だとそれほど詳細な言語化が出来ないことと、
StableDiffusioinだと、WD1.4taggerかBLIPの性能に引きずられているのではないか。
BLIPの代わりにGPTを使ってアノテーションをしている人も居るのだろうが、性能差があることから、
もしかするとOpenAIは角度など数値を機械的に測定したものも学習させているのかもしれない。
GPTは人に理解しにくい所は出力しないので、そこが差になっているのではないだろうか。
要はアノテーションツールがオープンなAIに足りてないということだ。
オープンなAIでは、学習時のデータがどれだけ良いか、データ量、ラーニングパラメータなどは議論されたが、アノテーションツールは議論されず、そこが差になったのではないか。
2つ目は、命令時の曖昧さを、モデル側でどれだけ拡張できるかではないだろうか。
学習時に詳細なアノテーションをしても、プロンプトを書く時は短縮していたり、意識せず省いていたりする。
例えば、「日本人の女性」とプロンプトを書いたら、現代の日本人女性を想像するはずで、
海外公的機関に保存された戦後の湿板写真時代で化粧をしていない日本人女性を意図してないはずだ。
そういった曖昧なプロンプトを意図を汲み取ってプロンプトを拡張して、推論モデルに食わせることが出来るか、
そこが差になったのではないだろうか。
Stable DiffusionはLoRAやControlNetが出てきて出来ることは増えた。
ただ、ControlNetは指定は出来るがすぐに破綻する。元のモデルに無いものは表現できそうで出来ない。
そして使い続けて、1000枚、2000枚と出力していくと、飽きてくる。
wildcardで色んなプロンプトを入力、ChatGPTでプロンプト作成して読み込ませたとしても、思ったより表現が出来ない、プロンプトが効かない。
絵柄も含めて着せ替えは出来るが、それだけなのだ。
LoRAで追加すればというが、アノテーションしているわけではないので、元のモデルが認識出来ないものは、全部丸めてsksなどの単語に置き換えられるので、
LoRAを探すたびになる。
何も理解してなくて、このコメントにすら絵が云々言っててびっくりするよ。
今後AIが人間に類する汎用性と知能を獲得できるとするなら、いま生成AIに対する投資で遅れをとると、それはもう致命的なんだよ。
今生成AIで使われてるtransformerだって生成AI用に開発されたんじゃなく、アノテーション用に作られた。今のAIに関する技術がどう他の分野に活かされていくかなんて分からない。
しかも、transformerはGoogleが気前よくオープンソースにしてくれたが、OpenAIしかり、今後は隠しておく風潮が出る可能性が高い。
絵を描いてる人は、早期にAIに食われてしまって可哀想だなと思うよ。でもここで日本が生成AIをはじめとするAIに関する開発投資で遅れをとるわけにはいかないんだ。多少の犠牲を払ってでも最前線を目指す必要がある。
今日は病院へ行きました。お注射です。お注射をしてしばらくは精神があまり安定しないようです。被害妄想を持ったりしてしまいます。
精神というのは、変動を検出すると不快感を持つような気がします。鬱の時も一定の心持ちであればそれなりに安定しますが、いきなり躁になったりすると錯乱するのかもしれません。
そういえば、私はインターネット上に残した自分の黒歴史の削除を試みました。
統合失調症+自分の名前で検索すると、誰かが勝手に私のYoutube動画(躁状態のときのもの)の音声をテキスト化したものが置いてありましたが、どうやらそのサイトは自然言語のアノテーションのサイトらしく、編集は誰でも行えるようでした。そしてその情報に「著作権侵害です」とラベルをつけて削除してきました。
そうそう、あと黒歴史ブログも残っていました。精神を錯乱して浮世離れしていた時のブログですが、「フロントカメラが不細工でバックカメラがイケメンなのは、介入する観察者が異なるからだ!」みたいな意味不明なことを書き、セルフィーまで載せていたのです。
このブログはまだ削除できていません。というのも、Googleアカウントのパスワードを紛失したからです。
Twitterにもいくつか精神錯乱時のアカウントが残っているのですが、それらも2段階認証を設定しており、ログインできなくなっているのです。
まあ、黒歴史というのはこのようにして、精神をおかしくしている時に生成してしまうものだとわかります。
ところで、インターネットを徘徊していたら、こんな文章を見ました。
つまり「人生の意味を問うても無駄。その代わり人生があなたに問うている」というものです。
もしそれが本当ならば、精神を錯乱して残した黒歴史を正常になってから振り返り、「この黒歴史、君自身はどう感じるのか?」と問うていることになります。
まったく、人生って本当に性格が悪いですね。私が嫌な思いをしていることがわからないのでしょうか。それともその嫌な経験こそが、哲学的深淵なのでしょうか。
私はその性格上、刺激を欲しがっているのです。SNSをやるのは、誰かから刺激をもらえないかというちょっとした期待に基づいています。
でも「いいねの応酬」はしっぺ返し戦略的、機械的なものになります。私が誰かにいいねすれば、その分のいいねが返ってくるというわけです。
そんなくだらない刺激のために黒歴史を残すなんていうのは、一体どういうことなんでしょうか。
SNSの繋がりなんて、所詮は浅い繋がりです。オンラインだと、相手がリアルに存在するものだと忘れてしまう人もいるようなのです。
やはり一期一会というのは、実際にオフラインで対面で会話したことのある相手の存在に対する「出会い」に感謝するような言葉であり、私をおもちゃにしようとしているネットトロールとの出会いというのは、そこまで感謝できるようなことではないと思うのです。
インターネットで発言すれば、好感を持たれたり、恨まれたり、見下されたりします。しかもその発言が、本来の私の精神状態ではないことだってあります。
「私」というものを、他人に誤解されることの恐怖が、SNSにはあります。もはや他人の目を気にして怯える場所です。
だから私は、発言する時は匿名性を重視するのです。箴言にも、愚か者が言葉数を増やしてしまうことに対する戒めがあるので、実名で語るシーンでは黙っておいた方が賢く見えるのです。
「話すは離す」という言葉もあります。結局、ネットであれカウンセリングであれ、悩みをぶちまけられる場所があれば、精神のデトックスになります。
そうやってぶちまけた内容というのは、恥ずかしい内容なので、やはり実名と紐づいてしまうと「目」の恐怖を感じます。
まあ、浅い繋がりの人たちに「見下すな」と言うのが、そもそも無理なのかもしれません。字下げ増田を「高学歴の愚者」などといって嘲笑う人たちがいますが、彼らは人の心を尊重することを軽視し、おもちゃにしています。
確かに、愚者は他人から見下されるような行動をしてしまいます。しかし、それが人間の弱さであり、弱さをお互いに認め合えるようになれば、「お前は愚かだ」などとインテリぶらずに優しい関係になれるのではないでしょうか。
画像に関して
ニュースだけ追いかけている人には、性能が上がって凄い!という感想だと思うが、
実際に定期的に触った身からすると、確かに凄いけどなんだかな、という感想だ。
プロンプト共有サイトが沢山出たが、ほぼ同じプロンプトで回っているため一通り見ると参考にならない。
多数使い回されているプロンプトより、数は少ないが自分にあったプロンプトを探す旅に出ることになり不毛だ。
動画に関して
自称インテリ語録は自分用コーパスの作成のために行っています。
意図は、箴言における「嘲る者(自分を賢いとみなし、他者を見下す傲慢な人)」を機械学習で見分けるモデルの作成です。
厳密なアノテーション基準はありませんが、アノテータがある程度の裁量で判断します。
「著作権侵害では?」と思われるかもしれませんが、差別は社会的に相応しくないため、コーパス作成は公益性があると判断し、また創作性のないものに絞っており、自己責任でやっております。
元々は自分の「自称インテリ」の概念の精密化のために行っておりましたが、Bing AIによって様々な分析をさせることが可能であることがわかったため、自然言語資源を作るという目標に変わりました。
Perl5の実用的な面での特徴は、異常なまでの後方互換性にある。
25年前のPerl4向けのスクリプトですら、ほとんど修正なしに最新のperl 5.36.0で動いてしまう。他のプログラミング言語ではあまり見られない特徴である。この特徴はある程度は今後も維持されるし、いまPerl5を書いている人の多くが望んでいることだろう。
しかし、後方互換性を守るあまり現代の言語に備わっているような機能が欠けている現状がある。ただ、それも改善されつつあり、後方互換性を守る形で慎重に取り入れられている。
一方で自由度が高すぎる文法は、後から修正を重ねていくようなものには不向きかもしれない。linterであったり、型アノテーションを書くようなモジュールも存在する。このようなものを用いて自分を律して書く分にはメンテ可能であるものの、現代のように多くの人が一つのスクリプトをいじることが求められる環境では不向きと言える。
実用的な面で向いているのは「一回書いたら修正を行わないスクリプト」かつ「10年単位で動かす必要のあるもの」である。そんなものはあるのかと思う人もいるかもしれないが、規模が小さければぴったりハマる場面もある。
言語としてはコンテキストだったり、ブロック単位で言語の挙動を変えられる点などが面白ポイントであるものの、これらはホビーとして楽しむのが良いというのが私の見解である。
AIが絵を描けるようになり、日本人なら漫画が描けるようになるのももうすぐと考えてしまうが、
AIに学習させる為のデータセットはManga109くらいしかない。
そしてアノテーションしようにも複雑だったりする。
「縦読みマンガ」は日本の漫画形式より簡略化されている(ように見える)ので、
先にAI対応して描けるようになったら、日本形式は駆逐されるのだろうか。
NovelAIで絵を描いたのを組み込んだのは、もう出てきた。
https://globalcomix.com/c/paintings-photographs/chapters/en/1/29
ツイッターで議論されていることを論理的に抽象化したら(自然言語処理的な意味で)アイデア生成機的に使えるのでは?と思ったのでブログでアノテーション作業を始めた。
https://tweetdiscussion.blogspot.com/2022/09/2022-072022-08ai.html
あんまし他の人から面白い行為に見えないかもしれないけど、自分としては面白いし暇つぶしにもなる。
アノテーションと言う割にルールの厳密性がなくて曖昧だが、将来的に巨大言語モデルに食わせる分にはそれでもいいとは思ってる。「自分の抽象化能力を再現できるか」という話。
例えば対象=お絵描きAI、対象A=AI、対象B=人間とすると以下のように議論を抽象化できる。(抽象化してるので、対象、対象A、対象Bに別のものを代入して色々と試せる)