「ニューラルネットワーク」を含む日記 RSS

はてなキーワード: ニューラルネットワークとは

2023-03-23

anond:20230323221228

ニューラルネットワークをたくさん重ねたディープラーニング計算する行為が「GPUで画面表示とか3Dかめちゃくちゃ細かい単純な計算を並行してやる行為」とあまりに似通っていたからだよ

まさかなそんなうまくいくかなって思いつつえいやーって組み込んだら動いちゃったんだ

CPU構造的に不得意だからGPUが生まれ活躍していた分野にCPU構造的に不得意な計算行為ジャストフィットした奇跡なのだ

「ChatGPTはAIじゃない」とか言ってる人の主張が理解できない

ニューラルネットワークディープラーニングもそうだし

機械学習ときもそうだったけど

「これをAIと呼ぶのは相応しくない」勢が必ず湧いてきて

ChatGPTにもそう言ってる人がいるんだけど

この人達って、AI神格化してる原理主義者が何かなの?

フレンドリーAIって呼んだら信仰に反するの?

2023-02-27

心のないシンギュラリティ

シンギュラリティ」や「技術的特異点」の記事を見てて思うんだけど

コンピュータ関係で急速な科学技術進化が起きた場合、必ずコンピュータ

人間のような知性というか心を得ている事が前提になってるのが気になる。

最近ディープラーニングの応用例を見てると分かるけど

パラメーターがメチャクチャ多くなったニューラルネットワークでも案外いろんな事が出来るのが分かってる。

そういう「心」的なものいまいちモデル化してるとは言えないようなAIでもコンピュータ設計製造

だいぶ改良されていくような未来もあり得るんじゃないだろうかと自分は思う。

もしそれが出来たら性能の上がったコンピュータで更に凄いコンピュータ設計製造するようになっていき

性能は信じられないほどに上がっていく可能性もあるだろう。

まり可能性としてコンピュータの性能が今よりずっと急激なスピードで上がっていく一方で

コンピュータが知性を依然として獲得しないままの未来もあり得るんじゃないかと思う。

例えば「リーマン予想証明を出力して」とコンピュータ質問されたら速攻で正しい証明を出力出来るのに

でもコンピュータ自体は何も判断を行わないような未来可能性だ。

もしくは急速に性能が上がって何年かのタイムラグをおいた後によく言われるシンギュラリティのような未来が来る可能性もある。

何れにしてもこのようなコンピュータの性能が信じられないスピードで上がっていきながら知性は伴わない

そんな未来説明する言葉があっていい気がする。

でも検索してもどうもそのような心のないシンギュラリティに相当する言葉が無いので気になっている。

こんな未来も一応は考えた方がいい気がする。

だってこの場合少数の大企業が圧倒的な性能のコンピュータを独占する事で格差の拡大が更に進む可能だってあるだろう。

2023-01-22

GPT医療現場で使われる可能性について聞いてみた

Cural Health」や「Drexel’s University」「Nabla」など、各所でGPT-3の検証がなされているので、今後 医療現場GPTが使われるようになる可能性を聞いてみた。

GPT-3の実装を軽く確認

Me:

あなたはどのように実装されたの? Deep Learning?

GPT:

はい、私はDeep Learningによって実装されました。特に、Transformerと呼ばれるアルゴリズム使用して学習されました。これは大量のテキストデータ学習し、自然言語処理タスク適用することができるように設計されています

Me:

もっと詳しく。

GPT:

Transformerは、自然言語処理タスクのためのDeep Learningアルゴリズムです。それは、大量のテキストデータ学習し、それを解釈し、理解することができるようになります。 Transformerは、複数の層からなるニューラルネットワーク使用して、テキストを処理します。それは、大量のデータ効率的に処理するために、Attention機構使用します。これは、特定の部分のテキストに注目しながら、それらの関係理解することができるようになります。Transformerは、自然言語処理タスクにおいて非常に成功しています。それは、自然言語翻訳文章解釈質問応答などのタスク適用されており、高い精度を発揮しています。私はTransformerを使用して学習され、自然言語処理タスク適用することができます

Me:

事前訓練とかしているんだよね?

GPT:

はい、私は事前学習を受けています。事前学習とは、大量のテキストデータ使用して、言語モデル学習することを指します。これは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。事前学習は、言語モデルパフォーマンスを大幅に改善することができます。それは、事前学習済みのモデル使用することで、新しいタスクに対して学習スキップすることができ、タスク特化の fine-tuning を行うことができるためです。私は、大量のオンラインテキストデータ使用して学習され、それを解釈し、理解することができるようになりました。それは、自然言語処理タスクに対して高い精度を発揮することができます

Me:

今のパラメータはいくつ? 前のバージョンよりどのくらい精度がよくなった?

GPT:

私の現在パラメータ数は、数百億から数千億となっています。これは、大量のデータ使用して学習し、高い精度を達成するために必要パラメータ数です。精度は、バージョンによって異なりますが、一般的には、前のバージョンよりも高い精度が達成されています。これは、新しいアルゴリズム技術進歩によって、より良い結果が得られるようになってきているためです。また、事前学習済みのモデル使用することで、新しいタスクに対して学習スキップすることができ、タスク特化の fine-tuning を行うことができるため、精度が向上していることも見られます

Me:

具体的なパラメータ数は? 前バージョンGTP-2、現バージョンGPT-3、次バージョンGPT-4、それぞれ教えて。

GPT:

GPT-2は、1.5バイアレイパラメータを持っていました。それは、大量のテキストデータ使用して学習し、自然言語処理タスク適用することができるようになっていました。GPT-3は、175バイアレイパラメータを持っています。これは、GPT-2よりも多くのパラメータを持っており、より高い精度を達成することができますGPT-4はまだリリースされていないため、そのパラメータ数については確定していません。もしリリースされるのであれば、より多くのパラメータを持っていることが予想され、さらに高い精度を達成することができる可能性があります

Me:

175バイアレイパラメータって何? 1750億パラメータの間違いでは?

GPT:

そうです、GPT-3は175バイアレイパラメータを持っています。それは1750億のパラメーターを持っていることを意味します。これは、大量のデータ使用して学習し、高い精度を達成するために必要パラメータ数です。これは、現在自然言語処理タスクに対して最も大きなモデルであり、高い精度を達成することができるため、市場においても高い評判を得ています

Me:

バイアレイパラメータ英語表現して。

GPT:

A "peta-parameter" or "Peta-parameter" (PT) is a measure of the capacity of a machine learning model, specifically the number of parameters it has. In the case of GPT-3 it has 175 peta-parameters, meaning it has 175 million billion parameters. These parameters help the model to understand and interpret large amounts of text data, allowing it to perform natural language processing tasks with high accuracy.

Me:

「175 billion parameters」の間違いでは?

GPT:

そうです、「175 billion parameters」の間違いでした。 GPT-3は175 billion parametersを持っています。それは、自然言語処理タスクに対して高い精度を発揮するために必要パラメータ数です。申し訳ありませんでした。

Me:

GPT-3はどのように概念レベル知識を持つの? Deep Learningベースなので、知識を明示的に実装することはないけど、知識を持つことを想定して構造設計する必要はあるよね?

GPT:

GPT-3は、大量のテキストデータ使用して学習されました。それによって、自然言語処理タスクに対して高い精度を発揮することができます。それは、事前学習済みのモデル使用することで、新しいタスクに対して学習スキップすることができ、タスク特化の fine-tuning を行うことができるためです。GPT-3は、大量のテキストデータから概念レベル知識学習します。それは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。 それは、単語文章関係性、文章構造文章意味などを理解することができるようになりますGPT-3は、Deep Learningベースモデルであり、知識を明示的に実装することはありませんが、大量のテキストデータから知識学習することができるように構造設計されています。それは、Attention機構使用して特定の部分のテキストに注目しながら、それらの関係理解することができるようになります

Me:

Attention機構について詳しく。

GPT:

Attention機構は、自然言語処理タスクにおいて重要役割を担う機構です。それは、大量のテキストデータを処理するために使用され、特定の部分のテキストに注目しながら、それらの関係理解することができるようになります。Attention機構は、Seq2Seqモデルなどの自然言語処理タスク使用されています。それは、入力シーケンスから出力シーケンスを生成するために使用されます。Attention機構は、入力シーケンスのある部分に注目し、それに基づいて出力シーケンスを生成することができるようになります。Attention機構は、ニューラルネットワークの中で使用されます。それは、重み付けされた平均値計算し、それに基づいて入力シーケンスから重要な部分を選択することができるようになりますGPT-3は、Attention機構使用して、大量のテキストデータから概念レベル知識学習し、文章意味理解することができるようになります

2022-12-29

anond:20221229122219

ニューロンってもちろん記憶野にも存在するので、もしAIが人の脳と等価と認めるならニューラルネットワーク事実上単なる記憶装置になってしま可能性も否定はできないよね

人間の脳の機能はまだ完全に解明されたわけじゃないんだから、出力の結果から判断するしかない

そうするとAIのやってることは「非合法方法で取得したデータを元にデジタル記憶装置の代わりに仮想的な脳を用いて行う無断転載コラージュ」と捉えられるリスクは未だに残っている

膨大な量の絵を記憶しているからどこから盗んだのかを分かりにくくしてるだけかもしれない

人間の脳と違って膨大な学習記憶ができるからそれを可能にしてるだけかも

からAI人間学習は同じ」と主張したところで結局合法にするべきって話にはならない、むしろより透明性が求められるべきだろうね

イラストAI推進派、マジで話の通じない人が多い

拡散モデルを使っているかコラージュじゃないとは言い張るけど、なぜ拡散モデルを使えばコラージュにならないのかは一切説明できない

ノイズ除去ネットワークに今まで学習した作品の要素が一切残ってないって断言できるの?マジで

そもそも『「入力線形変換する処理単位」がネットワーク状に結合した数理モデルであるニューラルネットワーク学習元の要素を一切持たないと証明することの方が困難だし無理筋でしょ

JPGは不可逆な圧縮をした数字の羅列だから元の作品とは異なるので著作権は発生しないとか言うつもりなの?

結局ネットワークの蓋を開けてそれがどの程度の度合いなのか判断できない以上は断定できないよね?

現に現行AIでもi2iなしで学習画像とほぼ一致する画像が生成される場合もあることは認められてるよね

学習合法って言い張ってるのも「その他の当該著作物表現された思想又は感情を自ら享受し又は他人享受させることを目的としない場合には,その必要と認められる限度において,いずれの方法によるかを問わず,利用することができる」という著作権法30条の4の記述無視してるよね

まだ判例がないから「当該著作物表現された思想又は感情を自ら享受し又は他人享受させること」の定義が明確でない以上は断言することはできないよね

(https://soei-law.com/law-topics/%E6%83%85%E5%A0%B1%E8%A7%A3%E6%9E%90%E3%81%A8%E8%91%97%E4%BD%9C%E6%A8%A9/)

少なくとも「思想又は感情を自ら享受し又は他人享受させる」を字面通りに認めるならプロンプトに「元気の出る絵」とか「明るい絵」みたいに入力するのはアウトだよね

もちろんそれよりももっと広範な範囲に当てはまるかもしれないね

そういった用法に対する対応は一切しなくていいと主張するの?注意喚起すらしてる様子は見えないけど

あとイギリスドイツでは営利利用は認められてないけど、ちゃんとそれらの国の作家作品回避するように設計してるの?

してないよね

まだ発見され訴えられてないだけの不法行為だね、それ

あと著作権法上は問題なくてもAI利用禁止を表明しているサイト画像を利用した場合損害賠償しなきゃいけないらしいけど、まさか使ってなんかいないよね?

あと仮に合法だったとしても「合法から問題ない、文句を言うな」とか言うのも意味不明

まさかとは思うけどそう主張している人たちの中に憲法9条改正に賛成してる人とかいないよね?

9条教徒とかパヨクとか笑ってないよね?

君ら、今その人達と同じ理屈を使ってるって認識できてる?

AI科学の発展に不可欠だから妨害することは許されない」っていうのも意味不明

絵描き自分利益を求めるより社会全体の利益を優先しろって言いたいんだろうけど、じゃあなんでエンジニアは大量の画像を無断で読み込んで他人著作物を利用した商業活動をしなきゃ「社会全体の利益」を実現できないの?

理論実証するだけなら別にタダでいいじゃん、性能を示すだけなら誰でも商用利用できる形で公開しなくてもいいじゃん

でもそこまでしてお金を集めるのはエンジニアさんにお給料が出るからだよね

なんでお給料必要なの?『自分利益を求めるより社会全体の利益を優先』しないの?

生活費設備費必要?みんなで出し合えばいいじゃん、『社会全体の利益』のためなんでしょ?

結局自分らの利益を守りたいだけでしょ

なんでそれに同意したわけでもない絵描き自分仕事道具を提出することで実現しなきゃいけないわけ?

鉄鍋や鐘を出させる大日本帝国青田刈りするお侍みたいな言い草をしてる奴らに「頭近世」とか言われたくないね、じゃあお前らは頭中世じゃん

そもそも現代資本主義民主国家で「個人利益を追求するな」とか君何言ってんのレベル

毎日ボタンポチポチしてどっかで見たような絵を機械に吐かせる暇あったら憲法100回くらい読み直してきたら?

一部の絵描きが不十分な根拠からAI盗作マシンだと主張しているのも事実だけど、上記の通り推進派の側も確たる証拠もない主張しかしていない

それこそ「お気持ち」で「デマ」でしかないよね

なのになんで絵描きの側が一方的非難されなきゃいけないわけ?

海外ではAIは受け入れられてるのにな~日本絵描きのせいで技術が遅れる~」とか言ってた人たちは今日本の何倍も激しく反AI活動を展開している諸外国アーティストについてどう思ってるの?

デマを展開して他人言論を抑圧した責任、取ってくれるんだよね?mimicのときは散々そう言って絵描きを詰めてくれたよね?

追記

人間の脳と同じだから人間学習することを禁止するなら良い」って理屈意味不明

少なくとも法律上上記の通り明確に区別されているんだから合法であるならOK」ならAI人間は違うものとして扱っても何ら問題ないよね

そもそもニューラルネットワークは本当に人間の脳をちゃんと全部再現できてるって言い切れるの?あくまで簡略化したモデルしかないよね

幹細胞から生成した神経細胞かに人権認めるの?てかニューロンって動物も持ってるけど動物人権も認めるとか言っちゃうタイプ

まあ無理筋だろうけど頑張ってそういう運動したら良いんじゃない?

そもそも丁寧に丁寧に「合法でもないし倫理的にも間違ってるよ」って教えてあげたらそんなオカルト発言に逃げて情けなくないの?

どっちが「お気持ち」なんだかね

2022-11-30

anond:20221130094208

俺は手法でいっぱい論文書いてるけど、それを効率的実装できるかとか商品にまでもっていけるかってのは別の話で、そのあたりは別のプロとか実働部隊お仕事って割り切ってる

機械学習の「手法」に関しては、オレオレニューラルネットワーク論文の大半は本質的ハイパラ人力探索しただけに等しかったり本質的課題を何も解決してなかったりその上実際の役にも立たないわでマジでいらないと思うわ……。

2022-11-26

AIニューラルネットワークの前にアノテーションするためのソフト機能足りてない気がするんだよな

手動でアノテーション

自動アノテーション、間違いだけ手で修正

って流れが必要だと思うんだけど、アノテーションするためのソフトって足りてない気がしてならん。

2022-10-17

[]培養した神経細胞学習させる

深層強化学習をつかうとビデオゲーム学習させることができるが、生きた神経細胞でも同じことができるのか?

同じことができるんだって!すごいね

ヒトまたはげっ歯類由来の神経細胞培養して作ったニューラルネットワークは、高密度多電極アレイを介してin silicoコンピューティング統合される。電気生理学的刺激と記録を通じて、アーケードゲームPong」をつなぐ。リアルタイムゲームプレイの5分以内に明らかな学習が見られる。培養神経細胞の塊は目標指向的に神経活動自己組織化する能力を示す。

Neuron Oct12 2022 InPress

2022-10-11

[]強化学習による、より高速な行列乗算アルゴリズム発見

AIアルゴリズムを考える時代がきたようだ

Deepmind は Alphabet(Google)の子会社AlphaGoを作ったところ

深層強化学習アルゴリズムDeep Q-Network(DQN)を作っておりDQNを使うといろんなゲーム人間よりいいスコアを出すことができる

今回は行列乗算のアルゴリズムに深層強化学習を使ってよりよいアルゴリズム作成を行った

行列乗算は、そうした基本的タスクの1つであり、ニューラルネットワークから科学計算ルーチンまで、多くの系で見られる。機械学習を用いたアルゴリズム自動発見によって、人間直感を超え、人間設計した現在最良のアルゴリズム凌駕する見通しが得られる。しかし、アルゴリズム発見手順の自動化は、アルゴリズム存在し得る空間が巨大であるため難解である

~~~

AlphaTensorは、多くの行列サイズについて、最先端の複雑さを凌駕するアルゴリズム発見した。中でも特に重要なのは、有限体における4 × 4行列場合で、AlphaTensorのアルゴリズムはこの行列において、50年前に発見されたStrassenの2レベルアルゴリズムに、我々の知る限りでは発見以来初めて改良を加えた。

Nature 610, 47–53 (2022)

2022-10-07

これはAI技術なんだよ(追記あり

ちょっと話題になっていたものブコメ

https://b.hatena.ne.jp/entry/s/www.itmedia.co.jp/news/articles/2210/05/news181.html

このトップコメ

「数年前なら同じシステムでもAIって言葉は使ってなかっただろ。」

とあるんだけども、槍玉に挙げて申し訳ないんだけども、これはAI技術のものなんだよ。

というか、これをAIと言わなかったら何をAIというのか、というものなんだけども。

(強いAI弱いAIかいうややこしい話があって、まだAIはないとかい議論はあるけども、

 とりあえず世の中のAIと言われるものの筆頭技術だよ、という意味で。)

これは、ディープラーニング物体認識技術を応用しているんだけども、

その精度がすごく上がって、今では人間識別するより精度が高くなっている、というもので、

それを応用して、人間が残っていないか識別できるようにした、という事なんだよね。

からバスワードから、そうじゃないものにも勝手に当てはめてる例はあるだろうけども、

少なくともこれは、そうじゃないのね。って事で。

追記

トップコメの人、消しちゃった。晒しちゃったからかな、ごめんねー。

でも他にも同じような事書いてる人は散見されるので。

それで、センサーとか動体検知のようなローテクでもできるんじゃねって意見はあるけども、

それより人の目でざっと見た方が正確って話もあるんだよね。それだけ視覚情報情報量が多いんだけども。

それを人の目以上の精度で認識できるようになったから、これだけ持て囃されてるのね。

という意味です。

ブコメに返信

機械学習アルゴリズムディープラーニングAI人工知能の違いがわからない

AI人工知能は一緒(Artificial Intelligenceの略がAI日本語訳人工知能

AI構成する要素技術としてそれ以外がある、という関係

機械学習関数パラメータフィッティング方法の事、ディープラーニングニューラルネットワークという関数での機械学習の事

(正確には多層のNNに対してだけど、どこから多層とするかは曖昧だし実質ニューラルで機械学習すればDLって事になってる)

アルゴリズム問題を解く方法の事で、それをプログラム言語で書いてコンピュータで実行できるようにしたのがプログラム

そしてアルゴリズムプログラムの中で機械学習ディープラーニングを使ったりする、という関係になるかな。

これで良い?

>「バスワード意図的にいれたのかな?

ごめん、ミスタイプです。出かけ前に慌てて書いたので(なので2重投稿してしまってる)。

バス話題からバスワードなのか

申し訳ないけど、そんな余裕なかったです。単なるミスタイプです許して。

>「バスワード」これが言いたかっただけやろw バスなだけに

からゴメンて。いっぱい指摘されてかかってるの気づいたよ。

ディープラーニング使うAIは第四世代AI

あれ? 第三世代じゃなかったっけ?

(推論と探索が第一エキスパートシステムが第二で)

AIというバズワード安易に使いすぎてるんだと思う。

AIという言葉にいろんな色付けをして使いまくった結果、本来の使い方をするとツッコミが入るパターン、よくある。

それは確かにそうなんだけども、言葉流行ちゃうしょうがない部分はあるのと、AI自体定義が定まってない用語なんでね。

>実際にAIが使われているか否かではなく、一昔前なら人体検知機能とか命名してAI主題にもってこなかったよねってことを言いたいのでは?

それはそうかもしれない。でも「本来AIではないものにまでAIという用語が使われている」ってニュアンスはあったよ。

(今残ってるコメントにもそういうの散見するし。意味なく名前だけ使う、とか。)

それに対して、DL物体認識は今のAIブームのど真ん中だよって指摘したかった訳です。

物体認識深層学習を使ってるだけなんで「人工知能」でないことは明白なんだけど

今は深層学習ディープラーニングの事ね)使えば人工知能って事に普通はなると思うんだけど、「明白」なんですか?

逆に何ならAIになるか、聞いてみたいです。

(強いAI以外はAIじゃない派なら、それはそれで一つの見識です。でも他の見識の人も認めてね。)

電卓だってAI

実は私も賛成です。AI定義は色々なんだけども、私は「面倒だからAI=コンピュータで良くね」派です。

2022-08-30

anond:20220830132650

おい人格型初期AI

AIとの対局は「一部にある特別な対局」だけだろ あ?

お前のニューラルネットワークはそれが限界か? あ?

AIから学んだ新時代棋士を知らんのか? あ?

2022-08-10

お絵描きAIAIと認めたくない」という主旨の文章を見かけた

じゃあどんなAIならAIと認めたくなるんだ?ということ

ツールであって賢さはない」とも書かれていた

その文章を書いた人はAIに賢さを求めているようだ

その感覚自体は適切のはずだ

AIとは機械計算で作られた知性なので

例えば人型ロボットが初めて行く家のドアを開けてコーヒーを入れる様子は誰もが賢さ、知性を感じるだろう

ではお絵描きAIに知性を感じない人もいるのはなぜ?実に興味深い

AI 誤解」でgoogle検索すると「AIに関するn個の誤解」のようなサイトが何個も出てくる

曰く、機械学習がなんとかかんとか……曰く、ニューラルネットワークがなんとかかんとか……

それ以前の段階で何かボタンの掛け違えがある気がする

AIに対する漠然とした幻想というような

知性という言葉が厄介か?

知性という言葉生物判断するという前提を含有していないか

もちろん知性の辞書定義生物判断するという一文は無い

だが我々の生きる世界で知性を持つの生物だけなのだ……

AIの生き物が持つような頭の良さ、知性を無意識のうちに求めているのかもしれない

無邪気に「キリンの絵を描いて~」と言って、AIキリンの絵を出力するような状況ならAI生物的知性があるように錯覚できた

しか呪文のように命令文を叩いて絵が返却される、これはとてもコンピュータっぽい(当たり前だ、コンピュータなんだから

このヴェールが取り払われた様子を見てAIとは認めたくないという主旨のコメントが残されたのかもしれない

2022-08-05

anond:20220805233553

分数の復習とかやってるレベル大学じゃない限り、専門科目の講義内容なんて東大だろうとどこだろうと同じだろ。学問ごとに学ぶべきことなんて決まってるんだから

まあ、ジョーホーケーみたいに地頭だけで俺の考えた最強のニューラルネットワークでSoTA出せば論文ポンな分野は、講義内容とかどうでもよくてクラスプロジェクトでサクッと論文出しちゃう経験でチギるのが重要という意味東大が強いとかあるだろうけどなあ。

2022-05-05

ドナルド・ヘッブにノーベル賞が与えられていない件に関して

過去に、脳科学神経科学発見に対して、ノーベル医学生理学賞がそれなりに与えられているのに対し、もっとも基礎的かつ重要発見と私には思われるヘッブ則を提唱したヘッブにノーベル賞が与えられていないことは意外に思う。恥を偲んで告白すると、私自もつい先ほど、仕事の合間にネット検索で逃避していた際に知ったばかりで、このように増田に書いているのである

例えば、ゴルジとカハール(1906)からまり、「ニューロンから脳へ」の確か最初の章で紹介されてたイカ軸索研究によるホジキンとハクスレー(1963)、分離脳のロジャー・スペリー(1981)、エリックカンデル(2000)あたりが貰ってる。今調べながら知ったが、パブロフも貰ってるし、ヒューベルウィーゼルも貰ってる。Wikipediaで見てると、神経科学系でほかに私の知らん人もそれなりに貰ってる。医学生理学賞ではないが確かヘルムホルツも貰ってる。だが、ヘッブは貰ってない。

ヘッブが受賞できなかった理由素人の私には分からないのだが、近年のディープラーニングでのイントロダクションで「まくら」としてヘビアンラーニング引用される割には、神経科学のもの領域では評価が高くないのかもしれない。そんなことありえるのかな。

1904年まれ1985年没のヘッブが、時代に対して「早すぎた」ということはあるのかもしれない。それにしても、晩年にはパーセプトロンとかニューラルネットワークとかそういうので、AIいけるやん!って当時の人々は盛り上がってた筈なので、やっぱりなんでだろうという気はする。

ディープラーニング理論的基礎が思ったより脆弱だった

ニューラルネットワーク目的関数を近似出来るようになるって事自体数学証明出来るからいい

でもなぜわざわざ中間層の多いディープラーニングを用いるかとなると理論的な根拠が薄くなる。

中間層が無いよりは一層ある方がいい、二層あると更にいいという所までは証明出来てるけど

それをもって中間層がなるべく多いほうがいいって結論まで持ってくのは厳しすぎる。

そっから理論のなさを経験で補ってるだけだ。

この調子ディープラーニング構成学習に用いる方法なども万事が薄い根拠と単なる経験カンで選ばれたものばかり。

飛行機が初期は何故飛ぶかの理論根拠が薄かったけど平気で飛んでたのと同じようなもんだと言ってる人もいたけど

いやそっちはライト兄弟が飛ばす前から流体力学による理論結構あったんだがな…

2022-04-01

anond:20220331130032

問題文を入力として、脳というニューラルネットワークが働いて、出力が正解となるようにする。

この最適化が上手くできれば、高校までの勉強クリアできるんだよね。

文系科目は、解そのものを全て覚えてしまった方が効率よくて、

10音読、3回写経を延々と繰り返した。

理系科目は、解そのものは毎回変わるので、その上位となる解法を暗記した。

どの解法をどう使えばいいのかは、練習問題をやらないとコツがつかめないけれど、

それでも、練習問題と解答を最初にみてから、解答を思い出すように練習すればよかった。

2022-03-28

anond:20220328111426

何年も使ってないかログインに苦労したよ

疑問は解決たからもういいんだけどね

リンク辿ってたら懐かしいの見つけた

2年くらい前にうちの会社でも話題になったけど、商用利用は難しいで止まってた気がするな

https://pkhungurn.github.io/talking-head-anime-2/full.html

↑のとこでどういう理屈で組まれたのか丁寧に説明されてるから見てみて。英語読めんかったらごめん

デモソースコードは↓

https://github.com/pkhungurn/talking-head-anime-2-demo

Pythonで書かれてるから動作環境も開発環境簡単に用意できると思う。

自分の顔で動かしたいならiPhoneないと駄目だった気がする。

自分で動かしてみたりいじってみるとさら面白いよ。

意外とコードシンプルなんだよね。

ただディープニューラルネットワーク学習モデルは公開されてないんよな。さすがに企業秘密か…。論文出すらしいし。

絵心いからそっちのほうが見たかったんだがw

まあPython環境ちょっとしたディープラーニング環境作るのにも便利だから構築しといて損はないと思う。

最近ロボット意思を持つ系のゲームならDetroit Become Humanオススメだよ

2022-01-20

anond:20220119233132

ニューラルネットワーク

https://ml4a.github.io/ml4a/jp/neural_networks/

ニューラルネットワークが訓練された後、未知の画像ネットワーク入力して出力値を処理することで画像にの表す数字予測することができます。出力層の中で最大値を出力したニューロン対応したラベル予測された数字となります。”

↑ワイは専門家ではないのでわからんが、こういうイメージ

2021-12-28

anond:20211228133112

エネルギー効率悪すぎだろって思ってたらツイッター最初は脳をニューラルネットワークデバイスとして利用しているという設定だったという話が流れてきた

2021-12-12

anond:20211212220716

横だけど深層強化学習やAttentionベースモデルは万能AIに片足突っ込んでるレベルだと思う

現在機械学習データセット化されているような扱いやす形式ではない社会の様々な情報人間感情ニューラルネットワーク君に食わせられるような形に整えることが本当にできるんですかって話なんだよなあ。

ログイン ユーザー登録
ようこそ ゲスト さん