「過学習」を含む日記 RSS

はてなキーワード: 過学習とは

2024-03-06

anond:20240223154325

そら「男に都合の良い女とそれを成立させる創作世界観」というステレオタイプ過学習したらそうなるんだろ

2024-03-05

anond:20240305170114

文化庁のあれで大幅な尺とっているRAGならともかく画像生成AIほとんど問題ないと思うよ。

文化庁のあれの注釈にもあるけれど、権利制限は主に学習時点の条件のであり、「当該著作物表現された思想又は感情を自ら享受し又は他人享受させることを目的とする」はRAGと違って学習させた絵を直接出力するわけではないから「当該著作物享受」になるにはコピー機レベル過学習意図的に行う必要になるし、「目的とする」となっていて結果ではないから例えばピカチュウの絵を出す目的学習するとNGだけれど、いろんな画像学習した結果ピカチュウが出力される場合もあるはOK。目的なんて学習した奴以外わかるわけないじゃんとかいくらでも嘘つけるじゃんって話は、著作権法以外での「目的」と同様に状況証拠から推認することになって、たとえば文化庁のあれだとキャラクターLoraは「享受させることを目的とする」ことが推認されうるNGパターンとして例にあげられてる。SDみたいな汎用のやつはある特定著作物享受させることを目的推認できることを証明するのはかなり大変じゃないかな。

著作権者利益を不当に害する」も学習段階の問題でやデータセット販売などが念頭にあり、例えば、学習目的なら無断で複製できるといっても有料で売ってるもの故意に割るのはNGよの為にある。むりやり生成時点の話にしても、30条4に限らずまだ存在しない著作物権利特定個人保障するなんてのがないから、例えばJOJOの画風生成AIによって JOJOの既刊が売れなくなったならともかく、まだ描いていない新しいJOJOが売れなくなるはずは通らない

2024-03-04

anond:20240304115359

ABAにおけるmaskingってASD向けの話よね?

まりよく分かってなかったから改めて調べたけど

ASDに絞って書いたつもりはないんだよな


ASDというより、むしろ伝統政治家経営者にはADHDが多いと思うのよ

過集中・過学習によって一般社会常識から逸脱するような

逸脱しつつも、社会的インパクトを与えてはいるし同じコミュニティにおいては会話は通じる

けれど、今の社会がそれを全てオープンに、見える化を求めているために

ADHDにおいても特に大人含めてmaskingが必要になってきたのではって話がしたかった


発達障害全般に広くmaskingが必要って話が周回遅れならそれはワイの勉強不足や

2024-01-26

anond:20240126125139

増田ネタでも一言一句まんまこれ言うのがAdoちゃんの客層だから

まぁだからこそ、彼女を売り出している大人(ブレーン)のフィルターがあるとしても、年齢から考えたら相当お行儀の良い振る舞いしてるんだが

(キッズメンヘラばっかだから過去には自殺未遂事件とか起きちゃったみたいだし)

 

以下再放送

 

ネットで反応を得るタイプアーティストは売り方が難しいわね

ワイくんは『飾りじゃないのよ涙は』や『罪と罰』やジャズっぽい曲がすんげぇ良かったから、フツーに歌手として活躍して欲しいけどな

くじらの『金木犀』もめっちゃ好き、

Adoちゃん用のオリジナルだと『過学習』がめっちゃすこ、澤野弘之の『Tot Musica』も良かったね

anond:20240126111401 anond:20240126123159

フツーに大人にご意見伺った上でのお気持ち表明と違いますの?

過去Adoちゃんもっと軽率炎上してる様子がプレビュー報酬目当ての闇深アンチ垢にまとめられてましたわ

(10代の若者からこういうこともあるだろうという罪の無いレベルだったが、メンヘラネット親和性高い子がメイン層だから自殺未遂事件も起きたそうな)

 

ネットで反応を得るタイプアーティストは売り方が難しいわね

ワイくんは『飾りじゃないのよ涙は』や『罪と罰』やジャズっぽい曲がすんげぇ良かったから、フツーに歌手として活躍して欲しいけどな

くじらの『金木犀』もめっちゃ好き、

Adoちゃん用のオリジナルだと『過学習』がめっちゃすこ、澤野弘之の『Tot Musica』も良かったね

2023-12-31

画像生成AI、あと何が足りないのか

倫理問題はここでは置いておいて、あと何が足りていないのか。


画像に関して

  1. ファッションメイク、ヘアセットなど言語化カテゴリーけが出来てないものコントロール出来ない
  2. 目の形などが出来ない。(元絵集めてLoRAでという方法になる)
  3. Controlnetでポーズが動かせるというが、実際やると違和感が残る。言葉説明しにくい(ので改善点をあげにくい)
  4. 漫画コマアノテーションデータ自体が足りてない。
  5. 2人キャラは描画出来るようになったが、まだ不安定。(Latentとか)
  6. データがある物のモデル、LoRaは増えるが、本当に真似るだけになっている。(クオリティは上がったが過学習している?)
  7. モデルは沢山あるが、どれも似たりよったり。
  8. モデルを全部入れ替える方法しかない。
  9. SD, SDXLなど元バージョンが変わると引き継ぎが出来ない。
  10. いい感じのバリエーション複数出してくれない。プロンプトを毎回探すことになる。
  11. 飽きる
  12. AI投稿サイトを見ても飽きる。Pintarestのような多様性がない。

ニュースだけ追いかけている人には、性能が上がって凄い!という感想だと思うが、

実際に定期的に触った身からすると、確かに凄いけどなんだかな、という感想だ。

プロンプト共有サイトが沢山出たが、ほぼ同じプロンプトで回っているため一通り見ると参考にならない。

多数使い回されているプロンプトより、数は少ないが自分にあったプロンプトを探す旅に出ることになり不毛だ。


動画に関して

  1. 実写動画からの変換は進んだが、元の動画がないと駄目。
  2. 実写からアニメに変換した物だと違和感が残る。(実写とアニメ表現の違い?)
  3. まだコマごとに差分があり、バタバタする(オクルージョン埋め込みが必要?)

2023-12-30

anond:20231230120955

人間データだけでは過学習となる

データは疑似的に作られてもいるはず

2023-09-01

目標が立てられない大人になってしまった

俺という生まれも育ちも今の境遇も何一つ努力してこなかったやつの末路の話なんだけどさ

将来像とか目標とかまったく思いつかないんだよ。

はてなを見ているような君たちは、「こういう学習をしてこういうふうになりたいんだ!」とかさ「趣味を続けてたら次の目標が見えてくる」みたいな

感じなのだうから、あまり理解されないと思うんだけど。

まず目標なんて持ったところで自分という頭が悪く、怠惰極北のようなダメ人間がその目標を達成できるわけがないという過学習が過ぎてしまって、

何もやる気が湧いてこないというのが一つある。

あとその目標を見つけるための何が、学習でも趣味でもキャリアアップとかでもそういう対象が見つからないでいる。

だって増田を書く前は、仕事から帰ってきて3時間ぐらいXやYouTubeを焦点の合わない目で見てぼんやりと過ごしてしまって

ふとこんな虚しさに気づいたばっかりに、不安になって増田を書いている始末。

もし今から、こんな怠惰な老人になってしまった今からやり直せるとしたら、どうやってやり直したらいいんだろうか。

自分ではもう手詰まりしか感じないが。

2023-07-13

anond:20230713003627

Nur ein Idiot glaubt,aus den eigenen Erfahrungen zu lernen.

Ich ziehe es vor,aus den Erfahrungen anderer zu lernen,um von vorneherein eigene Fehler zu vermeiden.

【DeepL訳】

自分経験から学べると思っているのはバカだけだ。

私は、自分の失敗を避けるために、他人経験から学ぶことを好む。

と言うが、愚者愚者たる所以経験から過学習することだろうな。

愚者経験に学び、賢者歴史に学ぶ」と言うが、愚者愚者たる所以経験から過学習することだろうな。

2023-07-12

anond:20230712150158

途中までは狙い通りの口調だったのに

ちょっと調整入れたら「じゃあの」「しましょうわ」などと口調が崩れてしまったはてのちゃん

まさにそういう過学習の好例

2023-05-11

anond:20230511194113

すぐにクオリティーでAIに抜かれるから

俺は去年の10月からAI画像進化を見ているけど最近進化が止まってきてると思うよ

直近のブレイクスルーってControlNet1.1くらいでしょ

DeepFloydは過学習も甚だしいし必要スペックも跳ね上がってるから技術的に普及しないだろうし

たぶん今の状態が長らく続くんじゃないか

2023-05-07

anond:20230507181026

カワイソーという気持ち普通にあるし、特定の絵柄を過学習して収益を上げた画像を本人に送り付けたりしてる輩は普通にカスだと思うけど、

それはそれとして絵師サイドも意味不明問題提起無意味抵抗が多すぎてバカじゃんとしか思えないんだよな。

AI擁護側のバカは全員無名なのに対してアンチAI側は結構成功してる絵師バカ晒してるから炎上コンテンツとして強くて、絵師ばっかり叩かれてるように見えてるだけ。

2023-04-30

anond:20230430123909

過学習感ある「普通の人はそんな変な単語検索しないので間違いでしょ」みたいな

2023-04-22

ただのメモ

https://arxiv.org/pdf/2304.10466.pdf

効率的な深層強化学習には過学習規制必要

 

試行錯誤によって方針学習する深層強化学習アルゴリズムは、環境積極的相互作用することによって収集された限られた量のデータから学習しなければならない。多くの先行研究が、データ効率の良いRLを実現するためには適切な正則化技術重要であることを示していますが、データ効率の良いRLにおけるボトルネック一般的理解不明なままでした。その結果、すべての領域でうまく機能する普遍的技術を考案することは困難であった。

論文では、非定常性、過剰な行動分布シフトオーバーフィッティングなどのいくつかの潜在的な仮説を検討することにより、サンプル効率的な深層RLの主要なボトルネック理解することを試みている。

  

効率のいい強化学習って難しいんですね

強化学習ってよく知らない

 

我々は、状態ベースDeepMind control suite(DMCタスクについて、制御された体系的な方法で徹底的な実証分析を行い、遷移の検証セットにおける高い時間差(TD)誤差が、深いRLアルゴリズムの性能に深刻な影響を与える主犯であり、良い性能をもたらす先行手法は、実際、検証TD誤差を低く制御することを示した。この観察からディープRLを効率化するための強固な原理が得られる。すなわち、教師あり学習正則化技術を利用することで、検証TD誤差をヒルクライムできる。

 

時間差(TD)誤差ってやつがだめらしい

誤差を減らすのがDeepLearningだけど、それが時間差なのか。

  

我々は、検証TD誤差をターゲットとするシンプルオンラインモデル選択法が、状態ベースDMCGymタスクにおいて効果であることを示す。

1 はじめに

強化学習(RL)法は、大容量の深層ニューラルネット関数近似器と組み合わせた場合ロボット操作などのドメインで有望視されている(Andrychowicz et al

2020)、チップ配置(Mirhoseini et al.、2020)、ゲーム(Silver et al.、2016)、データセンターの冷却(Lazic et al.、2018)。アクティブオンラインデータ収集単位ごとに費用が発生するため(例.

実際のロボットを動かす、シミュレーションによるチップ評価など)、限られた経験量でも効率的学習できる、サンプル効率の良い深層RLアルゴリズムを開発することが重要である。このような効率的なRLアルゴリズムの考案が、近年の重要研究課題となっていますJanner et al

2019; Chen et al., 2021; Hiraoka et al., 2021)。

原理的には、オフポリシーRL法(例えば、SAC (Haarnoja et al., 2018), TD3 (Fujimoto et al., 2018), Rainbow (Hessel et al., 2018))は、データ収集ステップごとに多くの勾配ステップポリシーと値関数改善することを可能にするため、良いサンプル効率が得られるはずです。しかし、このメリットは実際には実現できないようで、1回の学習ステップを多く取りすぎることでを収集した各遷移は、多くの環境において実際にパフォーマンスを害する。過大評価(Thrun & Schwartz, 1993; Fujimoto et al., 2018)といったいくつかの仮説、非定常性(Lyle ら、2022)、またはオーバーフィッティング(Nikishinら、2022)が根本的な原因として提案されている。

これらの仮説に基づき、より多くの勾配ステップを持つオフポリシーRLを可能にする方法として、モデルベースデータ増強(Jannerら、2019)、アンサンブル使用(Chenら、2021)、ネットワーク正則化(Hiraokaら、2021)、再生バッファを維持しながらRLエージェントゼロから定期的にリセット(Nikishinら、2022)などのいくつかの緩和戦略提案されている。これらのアプローチはそれぞれサンプル効率を大幅に向上させるが、これらの修正有効性は(これから示すように)タスクに大きく依存する可能性があり、根本的な問題やこれらの手法挙動理解することはまだ未解決である

 

ICLR 2023で会議論文として発表 本論文では、より多くの勾配ステップを取ることが深層RLアルゴリズムの性能悪化につながる理由ヒューリスティック戦略が役立つ場合がある理由、そしてこの課題をより原理的かつ直接的な方法で軽減する方法理解しようとするものである

最近提案されたタンデム学習パラダイム(Ostrovski et al., 2021)を用いた実証分析を通じて、TD学習アルゴリズムは、学習の初期段階において、すぐに高い検証時間差(TD)誤差(すなわち、保留した検証セットにおけるQ-ネットワークブートストラップターゲットの間の誤差)を得る傾向にあり、悪い最終解をもたらすことを明らかにする。

このホワイト ペーパーでは、深い RL アルゴリズムで勾配ステップを増やすパフォーマンスが低下する理由場合によってはヒューリスティック戦略が役立つ理由、およびこの課題をより原則的かつ直接的な方法で軽減する方法理解しようとします。 最近提案されたタンデム学習パラダイム (Ostrovski et al., 2021) を使用した実証分析を通じて、トレーニングの初期段階で、TD 学習アルゴリズムが高い検証時間差を迅速に取得する傾向があることを示します。

(TD) エラー (つまり、保留された検証セットでの Q ネットワークブートストラップ ターゲットとの間のエラー) が発生し、最終的なソリューション悪化します。 さらに、データ効率の高い RL 設定のために考案された多くの既存方法が、検証 TD エラーを低く制御する限り有効であることを示します。

この洞察は、深い RL を効率的にするための堅牢原則提供します。データ効率を向上させるために、検証 TD エラー山登りすることによって、特定問題に最も適した正則化選択するだけです。

この原則は、オンラインRLトレーニング過程特定タスクに最適な正則化戦略自動的発見しようとする単純なオンラインモデル選択方法の形で実現され、これを検証TDエラー使用した自動モデル選択(AVTD)と呼びます

AVTD は、各エージェントが異なる正則化適用する共有リプレイ バッファーで、いくつかのオフポリシー RL エージェントトレーニングします。 次に、AVTD は、環境内で動作するための検証 TD エラーが最小のエージェントを動的に選択します。

この単純な戦略だけでも、多くの場合、さまざまな Gym および DeepMind コントロール スイート (DMC) タスクで個々の正則化スキームと同様のパフォーマンスを発揮するか、それを上回ることがわかります重要なのはパフォーマンスドメイン間で大幅に異なる可能性がある以前の正則化方法とは異なり、私たちアプローチはすべてのドメイン堅牢動作することに注意してください。

要約すると、私たち最初の貢献は、サンプル効率の高いディープ RL のボトルネック実証分析です。 これらの課題の背後にあるいくつかの潜在的説明を厳密に評価し、トレーニングの初期段階で高い検証 TD エラーを取得することが、データ効率の高いディープ RL のパフォーマンスを阻害する最大の原因の 1 つであることを観察します。 私たちの 2 番目の貢献は、単純なアクティブ モデル選択法 (AVTD) です。これは、検証 TD エラー山登りによって正則化スキーム自動的選択しようとします。 多くの場合私たち方法は、さまざまな Gym および DMC タスクで、最適な個々の正則化スキーム匹敵するか、それを上回ります

2023-04-11

大規模言語モデル言語的なモデルと、データベースって分けられんの?

どんなに正確なデータ学習させても、確率的に単語や文を予測してるなら無理だと思うんだ。

過学習学習データそのまま出てくる以外は)

2023-03-14

最近絵描きAIがついていけない

どこかの誰かがWebに色々ノウハウ描くかなと思っていたのだけども、思ったより見つからない。


自分が使うと、クオリティが低い画像が出てくるのだけど、他の人が使っているのを見るとクオリティが高い。

もう少し正確に書くと、ディテールが崩れたような画像ばかり出る。

Sampling Stepが低いわけでなく、大きくしても途中から変わらない。(20くらいでサチる

Hiresfixを最近は使うらしいというのまでは知ったが、

Hires stepを大きくしても変わらず、denoisingの値を色々振って変わるがクオリティ良くならない。

Upscaler色々試したがわからず。


Controlnetなど使ってポーズいじりだすと更にクオリティ落ちる。

Latent Couple、Composable Loraを使うと更に落ちる。


RTX3090でxformer使ってるのに1.5 it/sくらいしか出ず、なんで他の人は40 it/sとか出てるのか…。


LoRAも学習させてみたけど、絵は変わるけど、上手く作れなかった。

ラーニングレートやepoch数などノウハウ色々あるみたいだが、すぐに過学習になるか、変わらないかだった。

人体が崩れやすい。


新しいサンプラーUniPCなんてのも出てきてわけわからん


階層マージなんてのも出てきてSuperMergerを入れて、MBWで階層ごとのパラメータを触れるのはわかったけども、

XYプロットの仕方がわからず手作業で探索するのは断念。

2023-03-11

Stable Diffusion2.1系のWD1.5 betaなど、なんで使いにくいし、学習させにくいのか

Stable Diffusion2.1は、12月に発表されたが、あまり使っている人がおらず、プロンプトが発掘されていない。

公式が出しているプロンプトをそのまま入力すると、クオリティ高くなるが、単純に入力すると破綻した画像しか出てこない。


Stable Diffusion2.1から学習させたものだと

  1. illuminati diffusion 1.0
  2. illuminati diffusion 1.1 (オフセット使った学習で、暗い画像特化なので1.0とは別物)
  3. waifu-diffusion v1.5 beta2
  4. Realism Engine

が有名だろう。(他にもあるが省く)


illuminati diffusionの公式が出している画像のように、クオリティ凄いと思って使ってみると全然出なかったりする。


Dreambooth、LoRaで学習させようとしても、変わるが効かない。

illuminati diffusionはEveryDream trainerで学習させていると言っているので、学習出来るのだろうが、どうも過学習っぽい(ように感じる)

waifu-diffusion v1.5 beta2も、過学習っぽく感じる。


過学習っぽいというのは、プロンプトは全然効かない、構図を変えようとするとおかしくなる。


そもそも、Stable Diffusion2.1の出来が悪いのではないか

ログイン ユーザー登録
ようこそ ゲスト さん