「アノテーション」を含む日記 RSS

はてなキーワード: アノテーションとは

2024-11-15

ChatGPTに画像の無断学習対応策を聞いてみた

AIAIへの対抗策を聞くってSFっぽくて楽しい

ChatGPTは嘘もつくので、あくまで参考程度に。

 

画像を生成するAIに対する対抗手段を教えてください。

画像を生成するAIによる無断学習や利用を防ぐために、以下のような対抗手段を講じることが可能です。

 

1.透かし(ウォーターマーク)の埋め込み:

画像に目に見えるまたは見えない透かしを入れることで、無断利用や生成AI学習に対して抑止効果を期待できます特に、目に見えない形で画像データ暗号的な透かしを埋め込む「デジタル透かし」技術有効です。

 

2.メタデータの埋め込みとロボット排除設定:

画像データ著作権情報や「AIによる無断学習禁止する」といったメタデータを埋め込み、ウェブサイトには robots.txt ファイル画像クローラーアクセスブロックする設定を追加します。これにより、クローリング収集抑制が期待できます

 

3.ステガノグラフィ技術の利用:

ステガノグラフィを用いて、画像に気づかれにくい形で識別情報を隠すこともできます。これにより、画像流出経路や利用先を追跡でき、無断利用の発見に役立てることができます

 

4.法的な警告表示や利用ポリシーの明示:

ウェブサイト画像の配布先に、AIによる無断利用や学習禁止する旨の法的警告や利用ポリシーを明示することも有効です。利用条件をはっきりと示すことで、AI企業研究者が慎重になる可能性が高まります

 

5.画像認証技術の導入:

AIが利用しにくいように、画像人間には気づきにくいパターンノイズを挿入する技術もあります。たとえば、AIにはノイズとして認識されるが、人間には問題なく見える小さな変形やカラーパターンを追加することで、AIによるデータ学習が困難になる場合があります

 

これらの対策は、画像生成AIに対する防御としては有効ですが、100%無断利用を防げるわけではありません

 

・生成AI学習を混乱させる手段はありませんか?

生成AI学習を混乱させるための手段には、以下のような方法が考えられます

 

1.ノイズや歪みの追加:

画像に目立たない程度のノイズや歪みを加えることで、アノテーションモデル境界や特徴を正確に認識しにくくする手法です。たとえば、ピクセルレベルランダムノイズを追加する、わずかに画像をぼかす、あるいは境界付近に小さな変化を加えるといった手法有効です。

 

2.不規則輪郭の挿入:

アノテーション処理は、対象物輪郭や特徴を正確に捉えることが重要です。そのため、背景や対象物輪郭わずかな不規則性を加えることで、アノテーションツール対象物境界を正確に判断しにくくすることができます。たとえば、背景に模様や偽の輪郭を挿入する方法です。

 

3.テキストやラベルを埋め込む:

画像人間には視認しづらい形でテキストやラベルを埋め込むと、AIアノテーションプロセスが混乱する場合があります。これにより、AI意図しない領域注視することがあり、誤認識を誘発します。

 

4.色や明るさのランダム変化:

画像の色や明るさを部分的に変化させ、一定パターンを持たないようにすることもアノテーション処理の混乱を招く一手です。これは、オブジェクトの検出や認識が色や明暗差異依存している場合有効です。

 

5.擬似的なオブジェクトの追加:

画像内に小さな擬似的なオブジェクトや模様を追加することで、AIがそれらを誤って主要なオブジェクト認識し、アノテーション精度が低下する可能性があります特に、背景に似たオブジェクトを散りばめることで、AIはどの部分が対象なのか判断しにくくなります

 

6.アドバーリアル技術活用:

AI認識を誤らせるために用いられる「アドバーリアル敵対的)な例」を使う方法もあります特定ピクセルパターンや色の配列を配置することで、AIアノテーション意図的に誤作動するよう誘導できます。この技術深層学習モデルに対して特に効果があります

 

7.カモフラージュテクニック:

画像全体にわずかなカモフラージュパターンを重ねることで、AI認識を混乱させる方法です。この手法では、人間が見た場合には問題なく認識できるものの、AI対象を捉える際に誤って検出するようなパターン画像に追加します。


思考実験として、danbooruなどアノテーションの元データとして使われているサイトタグが荒られたら画像生成AIモデル作成ダメージはありますか?

思考実験として、Danbooruといったアノテーションデータタグが荒らされた場合画像生成AIモデル作成に与える影響は以下の通りです。

 

1. データ品質が低下する

Danbooruは、イラスト画像に対して詳細なタグ付与されており、これらのタグ情報画像生成AI学習にとって非常に重要です。タグが荒らされることで、画像タグ対応関係が崩れ、モデルが正確な特徴を捉えにくくなるため、生成精度が低下します。

例えば、特定キャラクターテーマに関連するタグが荒らされ、誤った内容のタグ付与されると、モデルはその誤った情報学習し、キャラクターの特徴や設定が再現されにくくなる可能性があります

 

2. ノイズデータの影響

タグが荒らされると、モデルの訓練にノイズデータが増えるため、学習効率悪化します。たとえば、「黒髪」のタグが誤って「金髪」などに変更された場合モデルは同じ画像に対して異なる特徴を学習することになり、結果として生成画像一貫性が失われることが考えられます

また、同じ画像に異なるタグ付与されることで、モデル過学習や誤学習引き起こし、生成された画像本来意図からかけ離れたものになる可能性もあります

 

3. キャラクタースタイル再現性が低下する

Danbooruでは、特定キャラクターアートスタイル識別するタグが多く存在します。これらが荒らされると、特定キャラクタースタイルデータが混乱し、モデルが正確にキャラクターの特徴を把握できなくなるため、ユーザーが期待する生成結果が得られにくくなります

例えば、あるキャラクタータグが「髪型」「服装」「色彩」などで荒らされると、そのキャラクター再現曖昧になり、モデルが正しいビジュアルを生成できなくなることがあります

 

4. タグ信頼性低下によるモデル不安定

タグが荒らされると、データセット全体の信頼性が低下します。信頼性の低いデータをもとに学習したモデルは、特定の条件で異常な出力を生成することが多くなり、モデル全体の品質が低下します。これは、生成AI学習中に「どの情報を信頼すべきか」を判断できなくなるため、生成結果が不安定になったり、多様性が失われたりすることが考えられます

 

5. 検索フィルタリング精度の低下

AIモデルを利用するユーザーは、タグを通じて希望する画像を生成したり、条件に合った画像を探します。タグが荒らされると、AIモデル検索フィルタリング機能の精度も低下し、生成プロンプトが期待通りに機能しなくなる可能性があります。たとえば、「風景タグが荒らされ、異なるジャンル画像が混入するようになると、風景画像を生成したいユーザー要求が満たされにくくなります

 

結論

Danbooruなどのタグが大規模に荒らされた場合、生成AIモデルの精度低下や一貫性の欠如が発生しやすくなり、特にキャラクター特定スタイル依存する画像生成モデルに大きなダメージを与える可能性が高いです。


すでに学習済みのモデルを使って汚染されたデータクレンジングや異常値検出を行うなど対策される可能性がありますが、それらを阻害する手段はありますか?

無断での学習妨害し、学習コストを増加させるために、上記方法を阻害する手法には以下のようなアイデアがあります。これらの手法は、意図的にデータセットの品質一貫性を崩すことで、学習モデルの精度を低下させ、データクレンジングや異常値検出のプロセスを複雑化することが目的です。

 

1. 偽タグノイズタグを大量に追加する

意図的に誤ったタグ無関係タグ画像データ付与し、データセットの信頼性を低下させます。これにより、転移学習やラベルノイズ検出が困難になり、正確な特徴量を学習するコストが増加します。

例えば、キャラクター画像に全く無関係タグ(「動物」や「風景」など)を追加することで、モデルがどのタグが信頼できるか判別しにくくなり、誤ったラベルノイズとして学習されるリスクが増えます

 

2. 特徴量をぼかす/微妙な変更を加える

特徴量ベースクレンジング類似分析に影響を与えるため、画像の特徴がわずかに異なるように加工を施します。具体的には、色調を微妙に変える、ランダムピクセル位置ノイズを追加する、または特定の部位を意図的にぼかすことで、モデル抽出する特徴量の安定性を低下させます

この方法により、同じキャラクタースタイルであっても類似分析が困難になり、正確なクレンジングが行いにくくなるため、データ処理のコストが増加します。

 

3. アノマリーに近いデータ意図的に増やす

特徴が異なるバリエーションや擬似的な異常データを大量に追加することで、異常検出アルゴリズム信頼性を下げます。たとえば、キャラクターデザインや背景を少しずつ変えた画像意図的に作成することで、異常値検出が頻繁に誤検出されるようにします。

こうしたデータが混在することで、オートエンコーダーアンサンブルモデルを使った異常検出が混乱し、正確な異常サンプルの抽出が困難になります

 

4. 高頻度で微小なラベル変更を行う

学習済みモデル転移学習やラベルノイズ検出を阻害するために、同じ画像に対してラベルを定期的に変える手法です。微小な変更を行うことで、モデルは正しいラベル安定的学習することが難しくなり、モデル信頼性が低下します。

例えば、ラベル黒髪」を「暗めの髪」や「濃い色の髪」などに頻繁に切り替えることで、学習に不確実性を持ち込むことが可能です。

 

5. 意図的に類似画像多重登録する

データセット内で非常に類似した画像複数の異なるタグ登録することで、モデル学習を混乱させます特定キャラクター画像を少しずつ変化させて複数タグを付けると、モデルは「どのタグがどの特徴に対応しているのか」を判別しにくくなり、データセットのクレンジングが複雑化します。

特にタグ一貫性が失われるため、類似分析アンサンブルモデルによる異常検出の効果を低下させることが期待できます

 

6. アドバーリアルノイズ付与

AIモデル認識を混乱させるように、アドバーリアルノイズ敵対的な例)を追加します。人間にはほとんど気づかれないレベルノイズ画像に追加し、モデル特定の特徴を正確に認識できないようにすることができます

このノイズにより、モデルの特徴量ベース学習が混乱し、意図した通りに学習できないため、クレンジングの精度も低下し、データ処理の手間が増加します。

 

7. 乱数ベースの偽ラベル生成

特定ルールではなくランダムタグをつけたり、特定カテゴリ間でランダムにラベルを入れ替える方法です。これにより、ラベル画像の関連性が薄れ、アノテーション一貫性が失われます。この乱数による偽ラベル付与は、ラベルノイズ検出やアノマリー検出において、真のラベルを見極めるコストを大幅に増加させます

 

まとめ

これらの手法は、AI学習クレンジング意図的に妨害し、無断学習にかかるコストを増加させるために有効です。特に、「微小な変更」や「アドバーリアルノイズ付与」といった手法は、見た目の品質に影響を与えずにモデルノイズを持ち込むため、非常に効果的です。

2024-08-19

Segment Anything+WD 1.4 Taggerアノテーションしてくれるツールないんだろうか

FLUX.1でも指の問題解決出来ていない。

学習方法問題がある気がしてならない。

やっぱり画像ピクセル場所指定してアノテーションしないと解決しないんじゃないか

WD 1.4 Taggerでも、指まで区別してタグ付けしてくれないので、出来るなら指それぞれ分けてタグ付けしてくれるのがあるとありがたいが・・・

2024-05-29

anond:20240529163634

わかってないのはお前だろ

ホールドアウト分割を繰り返してるんだよ交差検証ってのは

テストデータブラックボックステストってのはそれとは別で、マニュアルアノテーションしてテストデータを作んの

低能にもこの説明でわかったか

anond:20240529141257

それは単なるホールドアウト分割だろ?

作業アノテーションしたきちんとしたテストデータの話をしている

2024-02-22

アノテーションツール進化と、命令補完に、AI進化引きずられるのでは

地味で面倒で時間がかかるアノテーション作業

結局、ここの性能がどれだけ良いか自動化出来るかでは。

一度AI認識し始めれば自動化進むが、最初必要になる。

自動化したとして、ツールの癖が出ると、それがずっと引きずられる。

アニメだと、エフェクト名前アノテーションつける人がわかるかとか。

名前つけられないと分離出来ない。

あとは人間がわかりにくい自然言語以外のアノテーションどうするか。


使う側だと、人間が書く短い命令をどこまで裏で補完出来るか。

補完後の命令も表示して、意図してないなら直してもらうとして、人間がわかりにくい自然言語以外のはどうするか

2024-02-17

オープンAIと、OpenAIはどこで差がついたままになっているのか

OpenAIがsoraでテキストから動画生成し話題になった。

モデルオープンになっているモデルの方が、クローズドモデルよりも進化する、という意見があったが、差がついたままだ。

何が原因か。

テクニカルペーパー(https://openai.com/research/video-generation-models-as-world-simulators)を見る限り、

予想の範囲内のことしか書かれてない。拡散モデル画像が出来た時点から、多くの人が想像出来る範囲だろう。

もちろん全部が書かれているわけではないだろうが。


どこで差がついたままなのか。

1つ目は学習時のアノテーションの量だろう。

手がかけない問題に対して、親指、人差し指などを細かく指定すれば解決はするのだろう。

そしてきちんと画素位置指定して学習させているはずだ。

StableDiffusionの学習だとKohya_ssが有名だが、good_hand, bad_handみたいな一言でまとめられているのではないだろうか。

画像をどれだけ言語化できるかで、人だとそれほど詳細な言語化が出来ないことと、

StableDiffusioinだと、WD1.4taggerかBLIPの性能に引きずられているのではないか

BLIPの代わりにGPTを使ってアノテーションをしている人も居るのだろうが、性能差があることから

しかするとOpenAIは角度など数値を機械的に測定したもの学習させているのかもしれない。

GPTは人に理解しにくい所は出力しないので、そこが差になっているのではないだろうか。

要はアノテーションツールオープンAIに足りてないということだ。

オープンAIでは、学習時のデータがどれだけ良いかデータ量、ラーニングパラメータなどは議論されたが、アノテーションツール議論されず、そこが差になったのではないか


2つ目は、命令時の曖昧さを、モデル側でどれだけ拡張できるかではないだろうか。

学習時に詳細なアノテーションをしても、プロンプトを書く時は短縮していたり、意識せず省いていたりする。

例えば、「日本人女性」とプロンプトを書いたら、現代日本人女性想像するはずで、

海外公的機関に保存された戦後の湿板写真時代で化粧をしていない日本人女性意図してないはずだ。

そういった曖昧プロンプトを意図を汲み取ってプロンプトを拡張して、推論モデルに食わせることが出来るか、

そこが差になったのではないだろうか。

2024-02-06

NovelAI、Midjourneyはどうやってアノテーション学習させているのか

SDXLが増えてきたが、Stable Diffusion独特の、face、eyeなどを入れていくと、

full bodyなどを指定しても顔のドアップしか出ないといった、昔から引きずっている問題が再発する。


2024-02-01

Stable Diffusionは着せ替え人形から変わるのか

Stable DiffusionはLoRAやControlNetが出てきて出来ることは増えた。

ただ、ControlNetは指定は出来るがすぐに破綻する。元のモデルに無いもの表現できそうで出来ない。

そして使い続けて、1000枚、2000枚と出力していくと、飽きてくる。

wildcardで色んなプロンプトを入力、ChatGPTでプロンプト作成して読み込ませたとしても、思ったより表現が出来ない、プロンプトが効かない。


特に構図やポージングは致命的なのだと思う。

絵柄も含めて着せ替えは出来るが、それだけなのだ

LoRAで追加すればというが、アノテーションしているわけではないので、元のモデル認識出来ないものは、全部丸めてsksなどの単語に置き換えられるので、

LoRAを探すたびになる。

2024-01-22

[] 2024-01-22

今日病院へ行きました。お注射です。お注射をしてしばらくは精神があまり安定しないようです。被害妄想を持ったりしてしまます

精神というのは、変動を検出すると不快感を持つような気がします。鬱の時も一定心持ちであればそれなりに安定しますが、いきなり躁になったりすると錯乱するのかもしれません。

そういえば、私はインターネット上に残した自分黒歴史の削除を試みました。

統合失調症自分名前検索すると、誰かが勝手に私のYoutube動画躁状態ときのもの)の音声をテキスト化したものが置いてありましたが、どうやらそのサイト自然言語アノテーションサイトらしく、編集は誰でも行えるようでした。そしてその情報に「著作権侵害です」とラベルをつけて削除してきました。

うそう、あと黒歴史ブログも残っていました。精神錯乱して浮世離れしていた時のブログですが、「フロントカメラ不細工でバックカメライケメンなのは、介入する観察者が異なるからだ!」みたいな意味不明なことを書き、セルフィーまで載せていたのです。

このブログはまだ削除できていません。というのも、Googleアカウントパスワードを紛失したからです。

Twitterにもいくつか精神錯乱時のアカウントが残っているのですが、それらも2段階認証を設定しており、ログインできなくなっているのです。

まあ、黒歴史というのはこのようにして、精神おかしくしている時に生成してしまものだとわかります

ところで、インターネット徘徊していたら、こんな文章を見ました。

まり人生意味を問うても無駄。その代わり人生あなたに問うている」というものです。

もしそれが本当ならば、精神錯乱して残した黒歴史を正常になってから振り返り、「この黒歴史、君自身はどう感じるのか?」と問うていることになります

まったく、人生って本当に性格が悪いですね。私が嫌な思いをしていることがわからないのでしょうか。それともその嫌な経験こそが、哲学的深淵なのでしょうか。

私はその性格上、刺激を欲しがっているのです。SNSをやるのは、誰かから刺激をもらえないかというちょっとした期待に基づいています

でも「いいね応酬」はしっぺ返し戦略的、機械的ものになります。私が誰かにいいねすれば、その分のいいねが返ってくるというわけです。

そんなくだらない刺激のために黒歴史を残すなんていうのは、一体どういうことなんでしょうか。

SNSの繋がりなんて、所詮は浅い繋がりです。オンラインだと、相手リアル存在するものだと忘れてしまう人もいるようなのです。

やはり一期一会というのは、実際にオフラインで対面で会話したことのある相手存在に対する「出会い」に感謝するような言葉であり、私をおもちゃにしようとしているネットトロールとの出会いというのは、そこまで感謝できるようなことではないと思うのです。

インターネット発言すれば、好感を持たれたり、恨まれたり、見下されたりします。しかもその発言が、本来の私の精神状態ではないことだってあります

「私」というものを、他人に誤解されることの恐怖が、SNSにはあります。もはや他人の目を気にして怯える場所です。

から私は、発言する時は匿名性を重視するのです。箴言にも、愚か者言葉数を増やしてしまうことに対する戒めがあるので、実名で語るシーンでは黙っておいた方が賢く見えるのです。

「話すは離す」という言葉もあります。結局、ネットであれカウンセリングであれ、悩みをぶちまけられる場所があれば、精神デトックスになります

そうやってぶちまけた内容というのは、恥ずかしい内容なので、やはり実名と紐づいてしまうと「目」の恐怖を感じます

まあ、浅い繋がりの人たちに「見下すな」と言うのが、そもそも無理なのかもしれません。字下げ増田を「高学歴愚者」などといって嘲笑う人たちがいますが、彼らは人の心を尊重することを軽視し、おもちゃにしています

かに愚者他人から見下されるような行動をしてしまますしかし、それが人間の弱さであり、弱さをお互いに認め合えるようになれば、「お前は愚かだ」などとインテリぶらずに優しい関係になれるのではないでしょうか。

無意味な戦いが世の中には溢れているのかもしれません。私は、愚かな人を守れる存在になりたいです。

2024-01-08

AI漫画がかけるようになるようなデータベース、出てくるのだろうか

誰かが最初AI学習させるためのアノテーション方法アノテーションしたデータベース必要になる。

Stable Diffusionなどを使って漫画が描きにくいのは1枚画像から学習させているので、合いにくい。

単にカラーからというわけだけでもないだろう。

背景だったり、演出効果が1枚絵向けなのだ


ネット上の複数人漫画を読むついでにアノテーションしたもの収集するというのもあるが、

アノテーションで性能が変わったりするので難しそう。

2023-12-31

画像生成AI、あと何が足りないのか

倫理問題はここでは置いておいて、あと何が足りていないのか。


画像に関して

  1. ファッションメイク、ヘアセットなど言語化カテゴリーけが出来てないものコントロール出来ない
  2. 目の形などが出来ない。(元絵集めてLoRAでという方法になる)
  3. Controlnetでポーズが動かせるというが、実際やると違和感が残る。言葉説明しにくい(ので改善点をあげにくい)
  4. 漫画コマアノテーションデータ自体が足りてない。
  5. 2人キャラは描画出来るようになったが、まだ不安定。(Latentとか)
  6. データがある物のモデル、LoRaは増えるが、本当に真似るだけになっている。(クオリティは上がったが過学習している?)
  7. モデルは沢山あるが、どれも似たりよったり。
  8. モデルを全部入れ替える方法しかない。
  9. SD, SDXLなど元バージョンが変わると引き継ぎが出来ない。
  10. いい感じのバリエーション複数出してくれない。プロンプトを毎回探すことになる。
  11. 飽きる
  12. AI投稿サイトを見ても飽きる。Pintarestのような多様性がない。

ニュースだけ追いかけている人には、性能が上がって凄い!という感想だと思うが、

実際に定期的に触った身からすると、確かに凄いけどなんだかな、という感想だ。

プロンプト共有サイトが沢山出たが、ほぼ同じプロンプトで回っているため一通り見ると参考にならない。

多数使い回されているプロンプトより、数は少ないが自分にあったプロンプトを探す旅に出ることになり不毛だ。


動画に関して

  1. 実写動画からの変換は進んだが、元の動画がないと駄目。
  2. 実写からアニメに変換した物だと違和感が残る。(実写とアニメ表現の違い?)
  3. まだコマごとに差分があり、バタバタする(オクルージョン埋め込みが必要?)

2023-10-12

[] アノテーション基準

自称インテリ語録は自分コーパス作成のために行っています

意図は、箴言における「嘲る者(自分を賢いとみなし、他者を見下す傲慢な人)」を機械学習で見分けるモデル作成です。

以下はアノテーション基準です。

厳密なアノテーション基準はありませんが、アノテータがある程度の裁量判断します。

著作権侵害では?」と思われるかもしれませんが、差別社会的に相応しくないため、コーパス作成公益性があると判断し、また創作性のないものに絞っており、自己責任でやっております

元々は自分の「自称インテリ」の概念の精密化のために行っておりましたが、Bing AIによって様々な分析をさせることが可能であることがわかったため、自然言語資源を作るという目標に変わりました。

anond:20231012164145

アノテーション基準などはそのうち公開するかもしれませんが、とりあえず当面は暇なときアノテーションして、自分専用にコーパスとして使えるぐらいの量まで持っていきたいですね

2023-05-11

anond:20230511202348

AI絵には人間による選別と調整が入ってるから厳密には蒸留ではないかな。高等なアノテーションツールとも言える。

2023-03-28

anond:20230327194840

Perl5の実用的な面での特徴は、異常なまでの後方互換性にある。

25年前のPerl4向けのスクリプトですら、ほとんど修正なしに最新のperl 5.36.0で動いてしまう。他のプログラミング言語ではあまり見られない特徴である。この特徴はある程度は今後も維持されるし、いまPerl5を書いている人の多くが望んでいることだろう。

しかし、後方互換性を守るあまり現代言語に備わっているような機能が欠けている現状がある。ただ、それも改善されつつあり、後方互換性を守る形で慎重に取り入れられている。

一方で自由度が高すぎる文法は、後から修正を重ねていくようなものには不向きかもしれない。linterであったり、型アノテーションを書くようなモジュール存在する。このようなものを用いて自分を律して書く分にはメンテ可能であるものの、現代のように多くの人が一つのスクリプトをいじることが求められる環境では不向きと言える。

実用的な面で向いているのは「一回書いたら修正を行わないスクリプト」かつ「10単位で動かす必要のあるものである。そんなものはあるのかと思う人もいるかもしれないが、規模が小さければぴったりハマる場面もある。

言語としてはコンテキストだったり、ブロック単位言語挙動を変えられる点などが面白ポイントであるものの、これらはホビーとして楽しむのが良いというのが私の見解である

2023-03-06

Stable Diffusionって、画像から物の形状どうやって認識してるのだろう

DreamBoothでファインチューニングする時は、既に学習しているモデル認識しているので、

学習させたい画像キャプションを食われば良いってのはわかる。


新しいキャラクター学習させる場合でも、もう殆どのパーツは既にモデル認識していて、

形状なり色が違うだけだから、それに差し替えるって感じだと理解している。


からないのは、まっさらモデル場合、512x512pixのうち、単語がどの場所を指しているかからないと思うんだよな。

一回、誰かピクセル単位アノテーションしたのだろうか。

2023-01-12

アノテーションのクソさ具合

某発表で、あるモデルの精度がアノテータのアノテーションが駄目になって追加の基準必要になったとか、そういう話をしてたんや

山田太郎もそれと同種のモデルを偶然公開してるが、自信のない場合確率エントロピーが高くなるように修正した

で、ふと「え?なんでアノテーションがいきなりダメになるの?」と疑問に思ったからアノテータに聞いたんだが、アノテーションが数による成果報酬からって理由山田太郎モデルを使ってたらしかった

山田太郎モデル以下の不要人材のくせに山田太郎モデル山田太郎以上のお給料得てたどうしょうもない連中だったので、それを山田太郎に伝えたらどうなるやろか

2022-12-03

AIがっていう割に、日本データセット作りが話題になってないと思うんだが

一部でやってるのは知ってるが、弱いまま。

AI使って何出来るのは話題になるけどさ。

あとは、データセットにアノテーションツールも弱いよね。

2022-11-26

AIニューラルネットワークの前にアノテーションするためのソフト機能足りてない気がするんだよな

手動でアノテーション

自動アノテーション、間違いだけ手で修正

って流れが必要だと思うんだけど、アノテーションするためのソフトって足りてない気がしてならん。

2022-11-25

縦読みマンガ」が先にAI出力対応すると、日本漫画形式駆逐されてしまうのだろうか

AIが絵を描けるようになり、日本人なら漫画が描けるようになるのももうすぐと考えてしまうが、

AI学習させる為のデータセットはManga109くらいしかない。

そしてアノテーションしようにも複雑だったりする。


縦読みマンガ」は日本漫画形式より簡略化されている(ように見える)ので、

先にAI対応して描けるようになったら、日本形式駆逐されるのだろうか。

NovelAIで絵を描いたのを組み込んだのは、もう出てきた。

https://globalcomix.com/c/paintings-photographs/chapters/en/1/29


2022-11-15

AI時代なのに、日本向けのデータセット作りとか、アノテーションとか話題にならないの、なぜ

2次元イラストデータセットが海外で作られていたり、

その他のデータセットもそうなんだけど、

日本向けのデータセット作ろうって動きが全然ないやん。


漫画データセットあるのかなと思ってみたけど、あるにはあるけどって感じのだし。


大量のデータに対してアノテーションつけるツールが足りてない気もするが、

日本ネット民集めてアノテーションするってのも出来ないんだろうな。面倒だし。

2022-09-27

趣味アノテーション作業

ツイッター議論されていることを論理的抽象化したら(自然言語処理的な意味で)アイデア生成機的に使えるのでは?と思ったのでブログアノテーション作業を始めた。

https://tweetdiscussion.blogspot.com/2022/09/2022-072022-08ai.html

あんまし他の人から面白い行為に見えないかもしれないけど、自分としては面白い暇つぶしにもなる。

アノテーションと言う割にルールの厳密性がなくて曖昧だが、将来的に巨大言語モデルに食わせる分にはそれでもいいとは思ってる。「自分抽象化能力再現できるか」という話。

例えば対象=お絵描きAI対象A=AI対象B=人間とすると以下のように議論抽象化できる。(抽象化してるので、対象対象A、対象Bに別のものを代入して色々と試せる)

ログイン ユーザー登録
ようこそ ゲスト さん