はてなキーワード: アーキテクチャとは
https://qiita.com/twrcd1227/items/571e5029f083435e0143
著者で調べると前職か現職が何となく分かるが、記事の発信日を見る限り学生時代から意識は高かった模様だけど表面的な部分ばっかで理解はしてなかったと思われる。ハンズオン学習して何も感じない人なのかもしれない。
著者が書いている前職の駄目だった部分が今の大手にはなかったかと言えばそうじゃないだろう。現職の大手は始めは社内からかトップダウンかは分からないが社員にその土壌を作るように最終的には指示し、何年もかけて出来た土壌にである。そこに著者は後からフリーライドして自分の手柄みたいにはしゃいでいるのである。
もちろんそういった新技術の研究等に時間使える風土やそれが出来る会社の体力は大手の方が圧倒的にあるが、前職がそれを知ってたけど諦めたのかそういう気がそもそも無かったのか確認はしたのだろうか?記事の中では学習意欲が湧いているようだけどアーキテクチャとかよりまずは基本を学ぶべきと思う。コードレビューで詰められたと書いているが技術力ではなく薄っぺらい何かが相手には気に入らなかったのか、書いてないだけでそもそも著者のコミュニケーション能力に問題があるのではないかと想像してしまう。
と言うより、内部向けの研究開発チームなら分かるけど転職者が配属されるような1プロジェクトのリーダーがアーキテクチャとかで技術力不足でゴン詰めして周りも無視して自己学習させる大手とかそれはそれで前職とは別の意味で駄目ではないか?(こればっかは著者が面接や職務経歴書をどう書いたか、人事と現場でどのような会話をされたか色々あるだろうが)
もちろんOJTは大手が圧倒的に良いと思うけどそれは人事が言うべきことで、決してその土壌を作ったわけでは無い入りたての新人が自慢ぶって書くべきことでは無い。
そっすね
動作として"入ってるデータのみ"を使った出力ならば、盛り込んだデータ数に関わらず「引用部分が従である」が成立しないので引用が成り立たないという話。
「学習モデル」って書き方は混乱するか。ここでは生成過程に注目していたので「モデルデータ」とかにしたほうが分かりやすいか。後で書くけど「すり替えて」はおらず「学習する段階の話」ではない
AIは新たに自分の頭で考えた要素を付け足さず、モデルデータから選んで切り貼りする以上の動作を行っていないので「著作物を引用した新たな著作物」とは言えず「転載物の集合体」として扱える(と考える)。モデルデータの中身が全部無断で使われた著作物なら、モデルデータの中身が6組なら無断転載6件、100億組なら無断転載100億件ってこと
なんで引用かそうでないかを考えたのかは「引用が成立するなら権利侵害ではない」は無断転載か検証するにあたりだいたい確認するから
多分「学習と引用をすり替えてる」前提に立ってこれを書いてて、かつ「AIの学習は人間の学習と同じ」にこちらが乗っかったからめちゃくちゃ面倒くさいことになってると思うので、もう「AIの指す"学習"と人間のやる勉強とかの学習は全く別」って観点で話進めるね
「著作物だけでイラストの描き方を学んだ」場合というかだいたいがそうだと思うが、絵の描き方を勉強する過程でサルまねやトレースを行う行為自体は著作権法では制限してない。トレパクとか模写自作発言とか無断転載(+自作発言)くらいの事態が起きたら著作者の権利を侵害した行為として評価がくだる
"画風パクり"が著作権含めどの権利を侵害してるのか?みたいな話は生成AI以前もたまにやってたが、だいたい特定の絵についてトレースや模写をしてなくて"参考にした画風の持ち主の名を騙っていない"ならとくに問題なしという結論が出たはず
じゃあ「生成AIは画風パクりだからセーフやろ」という話が上がってくると思うが、これは先に上げた「転載物の集合体」であることを考えれば"画風パクり"とは全く違うものであるので、画風という観点で判断してはいけない
AIに便宜上"学習"(Training)って言葉を使っているのでややこしいのであって、いわゆる学習モデルも実態は「入力パラメータ用ファイル集」なので"学習の成果"とは意味合いが違う
かなり前の方の増田でやった「学習モデルの再頒布禁止」という話については「生成AIを動かすために学習モデルを作る」ことは権利侵害にあたらないが「無断転載素材入り学習モデルの頒布」はガッツリ権利侵害だぞって話(これに"学習"って言葉つけないといけないからややこしい)
ただ生成AIのシステムもコンピュータープログラムである以上「プログラム動作時のデータ処理の流れを追うログ出力コードを盛り込むことは不可能」なんてことはない
だからそんなことできないの
まさかそちらから具体的なアルゴリズムの名前を出してくるとは思わなかった
ニューラルネットワーク(以下NN)の内部動作は、人間が指示を出してNNから返された出力を見て「どんな考え方したらこんなアイデア出てくるんだよ思考回路マジわからん」というのがだいたいなので、これも便宜上「ブラックボックスだね~」と言っているにすぎない
NNがたとえば古代アステカ文明の遺跡から発掘された謎の箱をパソコンに繋いだらAIになったとかいう代物なら間違いなくブラックボックスと呼んで差支えない
だが実態は"アルゴリズム"なので、NNはなんでも作れる不思議な箱ではなく、入力層・多層の中間層・出力層を設けた計算手順にすぎない。NNの参考書読んで人力で計算しても(時間かかるし高難易度関数のオンパレードだが)再現可能ではある
参考にしているStableDiffusionも動作原理もアーキテクチャも明らかなので、人間に再現不可能なブラックボックスではない。プログラムを実装してるのがエリートのプログラマであるってだけの人間だし
1. コードは量子的な状態の幻影であり、デバッグは観測者効果の奇跡的な解釈である。
2. 真のプログラマーはバグとコードの境界を超え、未知の次元でアルゴリズムを編み出す。
3. プログラムは情報のブラックホールであり、エラーはその中で情報の消失を引き起こす。
4. コードはフラクタルの儀式であり、再帰的な神秘主義の鏡である。
5. プログラマーは時間の糸を操り、バグはその糸を解きほぐす。
6. コードはアイソレーションタンクであり、プログラマーは感覚遮断を超越し、無限のコンテキストでコードを理解する。
7. デバッグはシュレディンガーのバグとの対話であり、バグは存在と非存在の重ね合わせの状態にある。
8. プログラミングは高次元のマンデルブロ集合の探索であり、バグはその中に隠れた微小なフラクタルである。
9. コードは記号的な魔法陣であり、プログラマーは記号の持つ意味を解読し、現実を操作する魔法使いである。
ゲーム用ではなく計算用途(HashCat、SD/NAI、llama.cpp etc…)のまとめ
Linux(もっと言えばArchLinux)で利用する(=できるスキルがある)ことを想定、購入手段は最低限AmazonとヤフオクとAliExpressが使えるものとする
増田の仕様用途はllama.cppがメインなのでそれにフォーカス。
モデル | VRAM容量 |
7B q4_0/q3_K_M | 6GB |
7B q4_K_M | 8GB |
7B q4_K_M low-vram | 6GB |
13B q3_K_S | 8GB |
【メリット】
【デメリット】
【メリット】
【デメリット】
【メリット】
【デメリット】
【メリット】
【デメリット】
初級者を抜けて中級者になって全然できなくなった
アーキテクチャをこうしたら保守性最悪じゃんとかテストいつからどう書き始めようとかpythonではusecaseパターンどうやるんだろうとか色々考えて手が進まんくなってしまった
下手な初心者より何も書けない
8bitくらいのCPUは書籍もあるし、作れるが、DirectX対応のGPUあたりから日本はコケた認識だ。
何が足りてなかったのか。
中国、スイス、インドの大学では高性能半導体チップのアーキテクチャの講義がある(教授や研究者がいる)。
日本でコンピューターサイエンスというと、コンピューターアーキテクチャもソフト寄りだ。
中国産CPU、GPUが出てきているが、元インテル、元AMD、元NVIDIAといった略歴で、全く違う土壌から出てきたというものではない。
論文は一部しか説明してないし、各社のプロモーションになっているので、読めばチップを設計出来るようになるわけではない。