「ニューラルネット」を含む日記 RSS

はてなキーワード: ニューラルネットとは

2024-04-02

AI関数人間の知能にはハッシュ関数ぽい振る舞いがある?

現代AIモデルって呼ばれてる奴は重みが調整された巨大なデータ構造です。

データ構造は多分ニューラルネット的なやつが一般的なのでは。知らんけど。あ、私素人ですので、あまり真面目に聞かないでください。

そんでこのモデル入力に応じて出力が変わります。LLMなら猫っていれたら、猫について語りだして猫この特徴や可愛らしさや、猫にまつわる人間感情についての文章が出力されるだろうし、画像生成なら猫の画像が出てきます

モデルは多くの場合関数として振る舞うので、出力方向からこの出力結果を入力すると(お尻にバイブを刺すのと一緒です。)元の入力データ復元できます。猫にまつわる説明文を後ろから入力したら「猫」って言葉が出るし、猫の画像を後ろから入力したら「猫」って言葉が取り出せます

画像認識AIがやっていたことが全く同じことで、画像認識AI画像生成AIは裏表の関係になっています

ところで人間場合は多くの人が、猫を識別できるにも関わらず、猫の絵を描くことが出来ません。

描くことが出来ても「猫」の再現リアルではありません。

人間の脳は、これらAIが獲得している何かの機能を削ぎ落としているようです。

なんかそのへんが一方向性ハッシュっぽさあるよなーって思った。この辺のアイディアを組み合わせたらなにか、劇的にAI計算コストを下げれそうよね。

あとは発話とかの人類共通計算ハードウェアにしてしまうとか、世界モデルベースハードウェアに落とし込むとか色々計算効率化はありそうな気がしている。

人力イラストは、目から入ってハッシュ化され脳に記録されたデータ、もしくは頑張ってハッシュを行わずに保存されてるデータからの手を使った画像復元処理って感じだろうか。

アニメとか漫画イラストとか絵を見るとき脳の効率を使わずに気分良く見れるのは、脳内の削ぎ落とされたデータに近い形での表現からだろうなって思いました。

こうなってくるとハッシュはいいすぎててたんに情報量を落としたデータだな。

でもハッシュって言ったほうがカッコいいよな。実際多くの人にとって再現度は低いし。

でもハッシュはいいすぎましたごめんなさい。

2024-01-18

なぜかAIエンジニアにされている

ニューラルネットなんて触ったこと無いのに

ネットで拾ってきたサンプルプログラムを動かせてファイルに出力する処理をちょこっと変えたデモプログラムを作っただけで、「AIエンジニア」扱いされてしまって

とんでもない期待とタスクを任されることになった。

今更できないとは言えない雰囲気だし。。。

ファミレスキッチンしてたの?じゃあ来客用に中華フルコース作ってって言われてる感じ

胃が痛い

2023-11-22

anond:20231122150958

当たり前でしょ、結局のところは使う人間モラル問題なわけ

そっすね

動作として"入ってるデータのみ"を使った出力ならば、盛り込んだデータ数に関わらず「引用部分が従である」が成立しないので引用が成り立たないという話。

意味わからんのだけど、著作物だけを学習させることが問題ってことか?著作物以外の要素が入ってればセーフ?

大体学習引用すり替えてる時点で意味わからん

学習モデル」って書き方は混乱するか。ここでは生成過程に注目していたので「モデルデータ」とかにしたほうが分かりやすいか。後で書くけど「すり替えて」はおらず「学習する段階の話」ではない

AIは新たに自分の頭で考えた要素を付け足さず、モデルデータから選んで切り貼りする以上の動作を行っていないので「著作物引用した新たな著作物」とは言えず「転載物の集合体」として扱える(と考える)。モデルデータの中身が全部無断で使われた著作物なら、モデルデータの中身が6組なら無断転載6件、100億組なら無断転載100億件ってこと

なんで引用かそうでないかを考えたのかは「引用が成立するなら権利侵害ではない」は無断転載検証するにあたりだいたい確認するから

著作物だけでイラストの描き方を学んだイラストレーターは著作権違法ってことになるけど大丈夫か?

多分「学習引用すり替えてる」前提に立ってこれを書いてて、かつ「AI学習人間学習と同じ」にこちらが乗っかったからめちゃくちゃ面倒くさいことになってると思うので、もう「AIの指す"学習"と人間のやる勉強とかの学習は全く別」って観点で話進めるね

著作物だけでイラストの描き方を学んだ」場合というかだいたいがそうだと思うが、絵の描き方を勉強する過程サルまねやトレースを行う行為自体著作権法では制限してない。トレパクとか模写自作発言とか無断転載(+自作発言)くらいの事態が起きたら著作者権利侵害した行為として評価がくだる

"画風パクり"が著作権含めどの権利侵害してるのか?みたいな話は生成AI以前もたまにやってたが、だいたい特定の絵についてトレースや模写をしてなくて"参考にした画風の持ち主の名を騙っていない"ならとくに問題なしという結論が出たはず

じゃあ「生成AIは画風パクりだからセーフやろ」という話が上がってくると思うが、これは先に上げた「転載物の集合体であることを考えれば"画風パクり"とは全く違うものであるので、画風という観点判断してはいけない

AI便宜上"学習"(Training)って言葉を使っているのでややこしいのであって、いわゆる学習モデル実態は「入力パラメータファイル集」なので"学習の成果"とは意味合いが違う

かなり前の方の増田でやった「学習モデルの再頒布禁止」という話については「生成AIを動かすために学習モデルを作る」ことは権利侵害にあたらないが「無断転載素材入り学習モデル頒布」はガッツリ権利侵害だぞって話(これに"学習"って言葉つけないといけないからややこしい)

ただ生成AIシステムコンピュータープログラムである以上「プログラム動作時のデータ処理の流れを追うログ出力コードを盛り込むことは不可能」なんてことはない

からそんなことできないの

ニューラルネットが内部でどう動いてるかなんてのは未だにブラックボックスなわけ

まさかそちらから具体的なアルゴリズム名前を出してくるとは思わなかった

ニューラルネットワーク(以下NN)の内部動作は、人間が指示を出してNNから返された出力を見て「どんな考え方したらこんなアイデア出てくるんだよ思考回路マジわからん」というのがだいたいなので、これも便宜上ブラックボックスだね~」と言っているにすぎない

NNがたとえば古代アステカ文明遺跡から発掘された謎の箱をパソコンに繋いだらAIになったとかいう代物なら間違いなくブラックボックスと呼んで差支えない

だが実態は"アルゴリズム"なので、NNはなんでも作れる不思議な箱ではなく、入力層・多層の中間層・出力層を設けた計算手順にすぎない。NNの参考書読んで人力で計算しても(時間かかるし高難易度関数オンパレードだが)再現可能ではある

参考にしているStableDiffusionも動作原理アーキテクチャも明らかなので、人間再現不可能ブラックボックスではない。プログラム実装してるのがエリートプログラマであるってだけの人間だし

anond:20231122131253

この言い方では「人間がそう指示を出せば"既存の絵とそっくり"な出力ができる」から事例次第では権利者が訴え出られるとも考えられる

当たり前でしょ、結局のところは使う人間モラル問題なわけ

動作として"入ってるデータのみ"を使った出力ならば、盛り込んだデータ数に関わらず「引用部分が従である」が成立しないので引用が成り立たないという話。

意味わからんのだけど、著作物だけを学習させることが問題ってことか?著作物以外の要素が入ってればセーフ?

それ、著作物だけでイラストの描き方を学んだイラストレーターは著作権違法ってことになるけど大丈夫か?

大体学習引用すり替えてる時点で意味わからん

ただ生成AIシステムコンピュータープログラムである以上「プログラム動作時のデータ処理の流れを追うログ出力コードを盛り込むことは不可能」なんてことはない

からそんなことできないの

ニューラルネットが内部でどう動いてるかなんてのは未だにブラックボックスなわけ

その辺のプログラムとはわけが違うんだわ

からないなら黙ってろよ

2023-11-02

anond:20231102123229

convolutionは今流行りのNeural Network画像系で使われるやつで本来数学用語なんだけどねー

コンボリューションが「数学用語というのは違和感あるなあ。

畳み込み演算自体は単純に演算であってそれ以上でもそれ以下でもないっていうか。

フーリエ変換すれば掛け算になるという構造はあるけど、数学的なオブジェクト位置付けるには抽象化が足りない感じ。

リー群の上の調和解析まで一般化すればいいかなと思うけど。

その場合ニューラルネットがどうとかいう話は余計でしかないよな。(群要素を座標によるレイヤーを定式化しました!みたいな研究はあるが)

恥ずかしすぎて1ミリたりともドヤるような内容ではないな。

2023-10-09

技術立国目指したければ経済観を持ったほうが良いよ

エリートって正面突破物事をやろうとするよな。自作ニューラルネットライブラリを作ったりとか、GPU自作したりとか。

俺は以前「ソフトウェアレバレッジ」という記事を書いて馬鹿にされた者だが、正面突破系の連中はマジでリスク概念を持っておいたほうが良いぞ。

アンチパターン一見見えるかもしれないが、モバゲーGREEが一斉を風靡した時代投資コストが非常に低いのに莫大な利益をもたらすことが業界でわかっていたはずだ。

正面突破も確かに魅力はあるかもしれない。つまり技術優位性を確保できるということだ。そのような技術投資する他国がいないので有利になる可能性があるということだ。

しかし、ソフトウェアというのは効率産物だ。一度作ったらそれを様々なところへ配布できることに魅力がある。

システムを開発して、一回きりで終わりというのではレバレッジは効かない。特定の汎用システムを作り、世界中へ配布してこそレバレッジが効くのである

しかも作ったソフトウェアは無制限コピーできるので、物理製造よりも圧倒的にレバレッジが効く。

そもそも金融においてレバレッジとは、他人から借りた資産自分資産比率のことである

ソフトウェアにおける一つのレバレッジ形態は、フリーオープンソースソフトウェア(FOSS)ライブラリ使用することで、開発者他人コード活用し、より少ないコードベース提供される機能を倍増させることができる。

あるいはブログプラットフォームレバレッジはわかりやすいかもしれない。コンテンツユーザーに作らせ、そこに検索エンジンからアクセスを獲得する。そしてプラットフォームシステム提供者は、広告を載せることで利益を獲得する。

これは「コンテンツ作成ユーザーに肩代わりする」という形態レバレッジである。一度プラットフォームが有名になり、誰もが使うようになれば、非常に低い労働コストで高い利益を獲得することができる。

なにより、広告産業レバレッジは最も魅力的な形態だろう。インターネットを通じて広告効果は極大化される。

手の込んだFF14のようなオンラインゲームというのはGREEなどと比較すると正面突破的であり、レバレッジ世界ではないかもしれない。

しかし、日本人の正面突破気質は、それはそれで良い気はする。あとはグロバライゼーションと売り込みのセンス

2023-08-21

anond:20230821065607

AIはこれまでもエキスパートシステムニューラルネット誕生強化学習誕生と小さい盛り上がりを見せては結局役に立たないと冬の時代突入してたんだよな

今回ばかりはしっかり役に立ってるので今までの盛り上がりとは一線を画してるけど

君たちさぁ、結果論で叩くのは簡単だけどさ

次に超伝導が盛り上がったら「超伝導投資してなかった日本はクソ」

次にIPS細胞が盛り上がったら「IPS細胞投資してなかった日本はクソ」

次に空飛ぶ自動車が盛り上がったら「空飛ぶ自動車投資してなかった日本はクソ」

批判ばっかりするなら最初からアンテナ張って次に来るもの予想してみろってんだ


AI勃興時代2015年あたりからAIに着目してた人だけが石を投げなさい

ニューラルネットが出てから物体認識タスクCNNがこれまでのHoG圧勝するあたりまでAI冬の時代なんて言われてたんだぜ。

ちなみにいち早くDeepMindを買収して育てたのは米国国策じゃなくGoogleだ。

2023-06-24

機械学習アーキ図で部品必要性わかんないし、GPUパイプラインもわかんない

機械学習記事検索して読んでいるが、色んなアーキテクチャがあるのはわかるが、各部品の必要性がよくわからない。

Transformerあたりから、なんかいきなり構造変わってさっぱり。

より広い範囲文脈を見ているというのであれば、単にデータひっぱってくればいいだけじゃね?と思ってしまう。


あとGPUで処理するのもよくわからない。

グラフィック処理するためのハードから、頂点シェーダー、ラスタライザーなどは入っていると思うが、AIの時に使っているパイプライン全然わからん

ニューラルネット構造通りにGPU内を組み替えてるのか?

GPU演算器の個数からニューラルネット構成決めりゃ無駄がないように思うが、そういったのを見たことがない。

2023-06-21

AI向けチップ自分理解

  1. GPUキャッシュ前提で作られている。例えばゲームだとキャラクターCGは使いまわし、シーン切り替えするまでキャッシュが効く。メモリ局所性あり
  2. AIは、画像だと空間文章だと文脈とどれだけ広いデータを参照するかがまずある。他のニューラルネットパラメータ全部更新キャッシュより、メモリ帯域が効く。
  3. ニューラルネットデータには流れがある。ニューラルネット構造をそのままハード化出来ると良いが、1チップで収まらない。複数チップ接続することになるが、広帯域のチップ通信は規格なく、独自

2023-04-22

ただのメモ

https://arxiv.org/pdf/2304.10466.pdf

効率的な深層強化学習には過学習規制必要

 

試行錯誤によって方針学習する深層強化学習アルゴリズムは、環境積極的相互作用することによって収集された限られた量のデータから学習しなければならない。多くの先行研究が、データ効率の良いRLを実現するためには適切な正則化技術重要であることを示していますが、データ効率の良いRLにおけるボトルネック一般的理解不明なままでした。その結果、すべての領域でうまく機能する普遍的技術を考案することは困難であった。

論文では、非定常性、過剰な行動分布シフトオーバーフィッティングなどのいくつかの潜在的な仮説を検討することにより、サンプル効率的な深層RLの主要なボトルネック理解することを試みている。

  

効率のいい強化学習って難しいんですね

強化学習ってよく知らない

 

我々は、状態ベースDeepMind control suite(DMCタスクについて、制御された体系的な方法で徹底的な実証分析を行い、遷移の検証セットにおける高い時間差(TD)誤差が、深いRLアルゴリズムの性能に深刻な影響を与える主犯であり、良い性能をもたらす先行手法は、実際、検証TD誤差を低く制御することを示した。この観察からディープRLを効率化するための強固な原理が得られる。すなわち、教師あり学習正則化技術を利用することで、検証TD誤差をヒルクライムできる。

 

時間差(TD)誤差ってやつがだめらしい

誤差を減らすのがDeepLearningだけど、それが時間差なのか。

  

我々は、検証TD誤差をターゲットとするシンプルオンラインモデル選択法が、状態ベースDMCGymタスクにおいて効果であることを示す。

1 はじめに

強化学習(RL)法は、大容量の深層ニューラルネット関数近似器と組み合わせた場合ロボット操作などのドメインで有望視されている(Andrychowicz et al

2020)、チップ配置(Mirhoseini et al.、2020)、ゲーム(Silver et al.、2016)、データセンターの冷却(Lazic et al.、2018)。アクティブオンラインデータ収集単位ごとに費用が発生するため(例.

実際のロボットを動かす、シミュレーションによるチップ評価など)、限られた経験量でも効率的学習できる、サンプル効率の良い深層RLアルゴリズムを開発することが重要である。このような効率的なRLアルゴリズムの考案が、近年の重要研究課題となっていますJanner et al

2019; Chen et al., 2021; Hiraoka et al., 2021)。

原理的には、オフポリシーRL法(例えば、SAC (Haarnoja et al., 2018), TD3 (Fujimoto et al., 2018), Rainbow (Hessel et al., 2018))は、データ収集ステップごとに多くの勾配ステップポリシーと値関数改善することを可能にするため、良いサンプル効率が得られるはずです。しかし、このメリットは実際には実現できないようで、1回の学習ステップを多く取りすぎることでを収集した各遷移は、多くの環境において実際にパフォーマンスを害する。過大評価(Thrun & Schwartz, 1993; Fujimoto et al., 2018)といったいくつかの仮説、非定常性(Lyle ら、2022)、またはオーバーフィッティング(Nikishinら、2022)が根本的な原因として提案されている。

これらの仮説に基づき、より多くの勾配ステップを持つオフポリシーRLを可能にする方法として、モデルベースデータ増強(Jannerら、2019)、アンサンブル使用(Chenら、2021)、ネットワーク正則化(Hiraokaら、2021)、再生バッファを維持しながらRLエージェントゼロから定期的にリセット(Nikishinら、2022)などのいくつかの緩和戦略提案されている。これらのアプローチはそれぞれサンプル効率を大幅に向上させるが、これらの修正有効性は(これから示すように)タスクに大きく依存する可能性があり、根本的な問題やこれらの手法挙動理解することはまだ未解決である

 

ICLR 2023で会議論文として発表 本論文では、より多くの勾配ステップを取ることが深層RLアルゴリズムの性能悪化につながる理由ヒューリスティック戦略が役立つ場合がある理由、そしてこの課題をより原理的かつ直接的な方法で軽減する方法理解しようとするものである

最近提案されたタンデム学習パラダイム(Ostrovski et al., 2021)を用いた実証分析を通じて、TD学習アルゴリズムは、学習の初期段階において、すぐに高い検証時間差(TD)誤差(すなわち、保留した検証セットにおけるQ-ネットワークブートストラップターゲットの間の誤差)を得る傾向にあり、悪い最終解をもたらすことを明らかにする。

このホワイト ペーパーでは、深い RL アルゴリズムで勾配ステップを増やすパフォーマンスが低下する理由場合によってはヒューリスティック戦略が役立つ理由、およびこの課題をより原則的かつ直接的な方法で軽減する方法理解しようとします。 最近提案されたタンデム学習パラダイム (Ostrovski et al., 2021) を使用した実証分析を通じて、トレーニングの初期段階で、TD 学習アルゴリズムが高い検証時間差を迅速に取得する傾向があることを示します。

(TD) エラー (つまり、保留された検証セットでの Q ネットワークブートストラップ ターゲットとの間のエラー) が発生し、最終的なソリューション悪化します。 さらに、データ効率の高い RL 設定のために考案された多くの既存方法が、検証 TD エラーを低く制御する限り有効であることを示します。

この洞察は、深い RL を効率的にするための堅牢原則提供します。データ効率を向上させるために、検証 TD エラー山登りすることによって、特定問題に最も適した正則化選択するだけです。

この原則は、オンラインRLトレーニング過程特定タスクに最適な正則化戦略自動的発見しようとする単純なオンラインモデル選択方法の形で実現され、これを検証TDエラー使用した自動モデル選択(AVTD)と呼びます

AVTD は、各エージェントが異なる正則化適用する共有リプレイ バッファーで、いくつかのオフポリシー RL エージェントトレーニングします。 次に、AVTD は、環境内で動作するための検証 TD エラーが最小のエージェントを動的に選択します。

この単純な戦略だけでも、多くの場合、さまざまな Gym および DeepMind コントロール スイート (DMC) タスクで個々の正則化スキームと同様のパフォーマンスを発揮するか、それを上回ることがわかります重要なのはパフォーマンスドメイン間で大幅に異なる可能性がある以前の正則化方法とは異なり、私たちアプローチはすべてのドメイン堅牢動作することに注意してください。

要約すると、私たち最初の貢献は、サンプル効率の高いディープ RL のボトルネック実証分析です。 これらの課題の背後にあるいくつかの潜在的説明を厳密に評価し、トレーニングの初期段階で高い検証 TD エラーを取得することが、データ効率の高いディープ RL のパフォーマンスを阻害する最大の原因の 1 つであることを観察します。 私たちの 2 番目の貢献は、単純なアクティブ モデル選択法 (AVTD) です。これは、検証 TD エラー山登りによって正則化スキーム自動的選択しようとします。 多くの場合私たち方法は、さまざまな Gym および DMC タスクで、最適な個々の正則化スキーム匹敵するか、それを上回ります

2023-03-30

AI向けのコンピュータ構成って、どういうのが最適なんだ?

AIを使いたいと思った時の、パソコンの不満点がある

  1. VRAMが24GBでは足りない。1つのモデルも動かせない。VRAMが欲しい。
  2. 複数モデルを動かすのを考えると2枚くらい拡張したい。
  3. RTX4090などではクーラーが占めてしまって、CPUGPUどちらが本体かわからなくなっている。
  4. NVIDIAが強いのはわかるが、AIだけ考えるとAI専用のチップで速いのが欲しい。グラフィック系は最低限でいい。


AppleM2CPUチップの隣にAI向けアクセラレータを付けて、チップ-チップ接続AIアクセラレータの周囲にVRAM配置

という構成がいいのだろうか?

ニューラルネットデータの流れに沿ったハードが良いんだろうが、いまいちよく分からん

ゲームだとシーン変わるまで同じデータ使い回すのでキャッシュ効けばいいのだろうけど、

AI場合モデルが大きすぎてメモリ帯域勝負という理解だがあってるだろうか?

2023-01-08

絵描きAI、背景、服、人物、画風、衣装とか、プラグイン方式で追加出来るようにならんものなのか

4GBくらいの1つのckptだとやっぱり小さいっぽいのよな。

位階層のニューラルネットで大雑把に決まったあと、詳細は手だけ学習したニューラルネットに任せるとか、

データ分離出来ないもんなんか。

2022-12-30

[]

Bは、まったくあてにしない。

労力がかかってそうだけど答えが自明でない問題

そんな問題をとかせる。そういうのってなんだろ?適当なのナイか?ないのか?EFに角はやす問題。これはうまくいくかどうかわからない。自明ではない。いかなかったときのcontingencyまでかんがえてやらなきゃなんない

ストン密度をあらわす曲線を機械学習

よくよく見たらそう(ルドベリ)ではなく、イージーだった。_| ̄|○。たしかあの曲線は数値計算でもとめるもの。いろいろな人がいろいろな方法でもとめている。どれか気に入ったやつ一つひっぱってくる。適当関数もしくはNNで回帰できないのか。

正攻法

いろいろなケースにたいしてゼロ極限でのエネルギーをもとめる (BSE)→数値計算→曲線をえがかせる

問題設定

うえで描いたやつを適当関数ないしニューラルネットであてはめ。おそらくビッグデータにする必要あるよな。○○構造予測問題の文献にのっているデータ数をかぞえてみよう。

実測系列データ生成

Bはあてにしないって書いた。しかデータ生成はリスキーなので活用できる人材いたら活用したい。あの辺の帯にある物件を金出して入手できればいいんだけどなぁ。正攻法だと入手困難だからちょっとトリッキー方法を考える必要。アソコに頼むと・・生成に失敗したとき責任問題が発生するからなぁ。うまくいかない可能性あるけどって但書してから頼めばOK?うぅんむずかしいところやな

2022-12-25

anond:20221225175743

でもそれってお前の暗記知識だろ?

情報理論的にニューラルネット分析する」ってことを吟味したら多分短絡的にこの場だけでポンとすべて出てくるなんてことはないだろ

お前はニューラルネット情報理論関係してるってコト自体意味不明って言ったわけだし

anond:20221225172744

入力ニューラルネット(重みネットワークって俺が呼んだもの) → 出力

って流れだけ見れば情報を変換する過程しかない(つまり情報理論の範疇)って猿でもわかる

お前はまず「情報理論」というものの基本を勉強してこい。シャノンの本でいいから読んでから出直してきて。

https://www.amazon.co.jp/dp/4480092226/

anond:20221225172413

お前の想像力が欠如してるからだよ

入力ニューラルネット(重みネットワークって俺が呼んだもの) → 出力

って流れだけ見れば情報を変換する過程しかない(つまり情報理論の範疇)って猿でもわかる

まりここから導かれることは、お前の知能が猿以下ってこと

2022-12-01

コンピューターサイエンスって何だよ?

最近コンピューターサイエンスプログラマー必要か否かみたいな話が上がっているが、そもそもコンピューターサイエンスって何だよ。どこまでの範囲をさしてんの?

って思ってググってみたらちゃん定義されてた。

ググって出てきた情報を整理しただけなので詳しい人、補足・訂正よろしく


情報

CS2013

https://www.acm.org/binaries/content/assets/education/cs2013_web_final.pdf

CS2013はACM/IEEE-CSによるカリキュラム標準。

ACM(計算機協会)はコンピュータ分野全般国際学会、IEEE-CSIEEE(米国電気電子学会)の中にあるテクニカルソサエティ


J07-CS

https://www.ipsj.or.jp/12kyoiku/J07/20090407/J07_Report-200902/4/J07-CS_report-20090120.pdf

J07-CS一般社団法人情報処理学会がCC2001CSベースアレンジを加えたカリキュラム標準。今はCS2013を反映したJ17-CSがあるらしいけどその辺は良く分からん

IPA共通キャリアスキルフレームワークとの対応表もあり。

https://www.ipa.go.jp/files/000024060.pdf


知識体系

J07ーCSから抜粋CS2013と比較するとナレッジエリアがあったり無かったり。

KAナレッジエリアKUナレッジユニットアユニット最低履修時間
DS離散構造DS1関数, 関係, 集合6
DS離散構造DS2論理6
DS離散構造DS3グラフ4
DS離散構造DS4証明技法8
DS離散構造DS5数え上げと離散確率の基礎7
DS離散構造DS6オートマトン正規表現6
DS離散構造DS7計算論概論4
DS離散構造DS8計算
PFプログラミングの基礎PF1プログラミング基本的構成要素9
PFプログラミングの基礎PF2アルゴリズム問題解決6
PFプログラミングの基礎PF3基本データ構造14
PFプログラミングの基礎PF4再起5
PFプログラミングの基礎PF5イベント駆動プログラミング4
ALアルゴリズムの基礎AL1アルゴリズムの解析の基礎4
ALアルゴリズムの基礎AL2アルゴリズム設計手法8
ALアルゴリズムの基礎AL3基本アルゴリズム8
ALアルゴリズムの基礎AL4アルゴリズムの高度な解析
ALアルゴリズムの基礎AL5高度なアルゴリズム設計
ALアルゴリズムの基礎AL6計算クラスPとNP
ALアルゴリズムの基礎AL7暗号アルゴリズム
ALアルゴリズムの基礎AL8幾何アルゴリズム
ALアルゴリズムの基礎AL9データ分析アルゴリズム
ALアルゴリズムの基礎AL10並列・分散アルゴリズム
ARアーキテクチャ構成AR1論理回路と論理システム6
ARアーキテクチャ構成AR2データマシンレベルでの表現2
ARアーキテクチャ構成AR3アセンブリレベルマシン構成7
ARアーキテクチャ構成AR4メモリシステム構成アーキテクチャ5
ARアーキテクチャ構成AR5インタフェース通信3
ARアーキテクチャ構成AR6機能構成7
ARアーキテクチャ構成AR7並列処理と様々なアーキテクチャ2
ARアーキテクチャ構成AR8性能の向上
ARアーキテクチャ構成AR9ネットワーク分散システムのためのアーキテクチャ
OSオペレーティングシステムOS1オペレーティングシステム概要1
OSオペレーティングシステムOS2利用者から見たオペレーティングシステム1
OSオペレーティングシステムOS3オペレーティングシステム原理1
OSオペレーティングシステムOS4プロセス構造スケジューリング3
OSオペレーティングシステムOS5並行性4
OSオペレーティングシステムOS6メモリ管理4
OSオペレーティングシステムOS7入出力デバイス管理と入出力
OSオペレーティングシステムOS8ファイルシステム2
OSオペレーティングシステムOS9認証アクセス制御1
OSオペレーティングシステムOS10セキュリティと高信頼化
OSオペレーティングシステムOS11リアルタイムシステム組込みシステム
OSオペレーティングシステムOS12並列分散処理のためのオペレーティングシステム機能
OSオペレーティングシステムOS13オペレーティングシステム構成
OSオペレーティングシステムOS14システム性能評価
NCネットワークコンピューティングNC1ネットワークコンピューティング入門2
NCネットワークコンピューティングNC2通信ネットワーク接続7
NCネットワークコンピューティングNC3ネットワークセキュリティ2
NCネットワークコンピューティングNC4クライアントサーバコンピューティングの例としてのウェブ3
NCネットワークコンピューティングNC5分散アプリケーションの構築
NCネットワークコンピューティングNC6ネットワーク管理
NCネットワークコンピューティングNC7ワイヤレスおよびモバイルコンピューティング
NCネットワークコンピューティングNC8マルチメディア情報配信システム
PLプログラミング言語PL1プログラミング言語概要2
PLプログラミング言語PL2仮想計算機1
PLプログラミング言語PL3言語翻訳入門2
PLプログラミング言語PL4宣言と型3
PLプログラミング言語PL5抽象化メカニズム3
PLプログラミング言語PL6オブジェクト指向言語6
PLプログラミング言語PL7関数言語
PLプログラミング言語PL8論理言語
PLプログラミング言語PL9スクリプト言語
PLプログラミング言語PL10言語翻訳システム
PLプログラミング言語PL11システム
PLプログラミング言語PL12ブログラミング言語意味論
PLプログラミング言語PL13プログラミング言語設計
HCヒューマンコンピュータインタラクションHC1ヒューマンコンピュータインタラクションの基礎6
HCヒューマンコンピュータインタラクションHC2簡単グラフィカルユーザインタフェースの構築2
HCヒューマンコンピュータインタラクションHC3人間中心のソフトウェア評価
HCヒューマンコンピュータインタラクションHC4人間中心のソフトウェア開発
HCヒューマンコンピュータインタラクションHC5グラフィカルユーザインタフェース設計
HCヒューマンコンピュータインタラクションHC6グラフィカルユーザインタフェースプログラミング
HCヒューマンコンピュータインタラクションHC7マルチメディアシステムのHCI 的側面
HCヒューマンコンピュータインタラクションHC8協同作業コミュニケーションのHCL的側面
MRマルチメディア表現MRI情報ディジタル表現2
MRマルチメディア表現MR2文字コード1
MRマルチメディア表現MR3標本化。 量子化圧縮原理アルゴリズム
MRマルチメディア表現MR4マルチメディア機器
MRマルチメディア表現MR5オーサリング
GVグラフィックスとビジュアルコンピューティングGV1グラフィックスにおける基礎技術2
GVグラフィックスとビジュアルコンピューティングGV2グラフィック・システム1
GVグラフィックスとビジュアルコンピューティングGV32次元画像の生成と加工
GVグラフィックスとビジュアルコンピューティングGV4モデリング
GVグラフィックスとビジュアルコンピューティングGV5レンダリング
GVグラフィックスとビジュアルコンピューティングGV6コンピュータアニメーション
GVグラフィックスとビジュアルコンピューティングGV7視覚
GVグラフィックスとビジュアルコンピューティングGV8仮想現実(VR)
GVグラフィックスとビジュアルコンピューティングGV9コンピュータビジョン
ISインテリジェントシステムIS1インテリジェントシステムの基本的問題3
ISインテリジェントシステムIS2探索および制約充足2
ISインテリジェントシステムIS3知識表現および推論
ISインテリジェントシステムIS4高度な探索
ISインテリジェントシステムIS5高度な知識表現と推論
ISインテリジェントシステムIS6エージェント
ISインテリジェントシステムIS7自然言語処理
ISインテリジェントシステムIS8機械学習ニューラルネット
ISインテリジェントシステムIS9プランニングシステム
ISインテリジェントシステムIS10ロボット工学
IM情報管理IMI情報モデルシステム2
IM情報管理IM2データベースシステム2
IM情報管理IM3データモデリング4
IM情報管理IM4関係データベース3
IM情報管理IM5データベース問合わせ3
IM情報管理IM6関係データベース設計データ操作
IM情報管理IM7トランザクション処理
IM情報管理IM8分散データベース
IM情報管理IM9データベース物理設計
IM情報管理IM10データマイニング
IM情報管理IM11情報格納と情報検索
IM情報管理IM12ハイパーテキストハイパーメディア
IM情報管理IM13マルチメディアデータベース
SP社会的視点情報倫理SP1コンピ

2022-11-30

anond:20221130144431

数値誤差とかそういう概念機械学習系だとほぼ意識しないよな

誤差以前にそもそも確率的に最適化してて巨大なノイズが乗るし、とにかくデータ積み上げて計算着回せばいいんだよ!!!って感じで些末なこと考えても仕方ない

ただ最近は(第3波の)ニューラルネットネイティブ世代が増えてきていて、なんかコマンド打てば動くんですみたいな解像度で色々やっててそれはそれで怖い笑

anond:20221130144431

ニューラルネット自体計算精度が問題になりそうにない大づかみな考え方っぽいし、計算自体も誤差の累積で拡散ちゃう性質のものじゃないっぽいから、それでいいんだろうな。微分方程式の解法とはだいぶ性質が違ってそうだ。まあ分野によりけり問題性質によりけりってことか。

anond:20221130133752

ニューラルネットは単精度計算でやってるのが標準で、それで死ぬほど足し算とか掛け算とかしまくってるので数値誤差は酷いことになってるはず。

でもなんか問題ないっぽいからまあいいっしょで思考停止してそれ以上のことを考えてる人間専門家でもほぼいない。(たぶん真面目に考えても特に何も面白い結果は出てこないと思うが)

2022-11-14

国産半導体が売れるジャンルってあるのだろうか?

ロジックプロセス2nmを国産するということだが、数兆円市場を目指すとしているが、何を作るのかはまだ明かされてない。


スマホ向け

スマホ向けSoCだと

  1. CPU
  2. GPU
  3. 画像処理エンジンISP
  4. カメラインタフェース(MIPIなど)
  5. WiFi
  6. GPS
  7. 温度計
  8. UART
  9. ニューラルネットエンジン
  10. 5G RF

といったのが乗っており、色んな物を作らないといけないのでハードル高そう。


PC向けCPU

x86を作ったとして、パソコンの台数自体頭打ち

今のインテルAMDを超えるのを作れたとしても、競争は激しそうだ。

コンシューマ向けで日本人は期待する所だろうが、おそらくない。


PC向けGPU

NVIDIA1強になっているのはよくなさそうだが、DirectX対応GPUメーカーが淘汰された状態が今なので、おそらくない。

コンシューマとしてはゲームを期待すると思うのだが、

ゲーム販売方法自体が、高性能なハード赤字で売ってソフトで後で稼ぐモデルから変わってしまっているので、おそらくない。


軍事用途

TSMCF-35チップを作ってるというのは検索すりゃすぐに出てくる。

似たようなので兵器に使っているチップ国産したいっていう国のニーズはあるはずだ。

ただ数が出ない。


政府特殊用途チップを作りたいというのもあるはずだ。

例えば、特殊暗号チップを作り、国内の省庁間や、海外にある領事館との間で、重要通信に使う、

というのは考えられる。

こちらも数は出ない。


サイバー攻撃に対してのチップというのもあるかと思う。


宇宙用途

何かしら作りたいのだろうが、こちらも数が出ないだろう。


通信

通信データ量はドンドン増えていることと、安全保障観点で透明性が求められるので、

多少高くても国産、というのは出てきそうだ。


AI

AIも沢山あるが、例えば車向けとしても、車に載せるのではなく、社内のスパコン向けの方がいいのではないだろうか。

テスラが社内に使うスパコン自分達でチップから起こした、みたいなものだ。

なんで社内向けが重要かは、車に載せると多少コストがかかっても解析されてしまう。

GoogleAmazonなどが自社で作ったチップクラウドで使うとしているのは、他社、他国チップを解析されない、というメリットがある。


個人パソコンに挿せるAIチップが載ったPCIカードが出てくれば、国民としても身近に感じられるだろうが、

どうなるかはわからん


物理シミュレーション向け

GPUでも性能足りてない。

製造業兵器作るのには重要だが・・・

クラウドマイナンバーカードさえあれば、それなりに自由に使えるなら自分は使う。



追記

書いている途中で力尽きたので、上記だけだった。

以下、コメント返し

RISC-Vがこれから来る、というのは確かにそうなのだが、

ターゲットとするのは、もう半導体として機能向上を求めないところ(他の機械部分がボトルネックになるなど)だと思っている。

要はコストダウンのみで、チップが無いと困るが、もう新しく設計必要なく量産だけやってくれる方がいいってところの認識だ。


車載エンジン周りのマイコンは先端2nmはしばらく使わず

どちらかというと自動運転向けの画像処理か、車載にせず社内の画像学習向けの方が良いはず。

イメージセンサーに載るのは2nmは多分使わず熊本28nmの方使うはず。

センサーの後ろにつける画像処理用のISPは2nm使うのはあると思う。

8K,16K 24fps以上狙うと使わないと処理追いつかないはず。

2022-10-10

最近AIに使ってる深層学習ってニューラルネットやろ?

シリコンより人間の脳に演算させたほうが良くない?

植物人間大脳とかほとんど機能してないし計算機にできないのかな

ログイン ユーザー登録
ようこそ ゲスト さん