「ニューラルネットワーク」を含む日記 RSS

はてなキーワード: ニューラルネットワークとは

2019-11-17

哲学黄昏

http://www.phys.cs.is.nagoya-u.ac.jp/~tanimura/time/note.html

サーバメンテナンスみえないっぽいけどめちゃくちゃ面白いね。いまさらだけど。

谷村先生は本当にまじめな先生だな、と思う。

メタな話をすれば、哲学者側は最先端物理学者との対談で自分の論に箔をつけて業績にできるめったとないチャンスで、対する物理学者側は正直こんな本が出ても業績としてたいして価値があるわけでもなく、無難お茶を濁しても誰も何も言わないだろう状況へこのガチファイターの投入である。(ほめてる)

流血覚悟、魂をこめた渾身の右ストレート

そしてこの叫びである

https://twitter.com/tani6s/status/1193542355975950336

https://twitter.com/tani6s/status/1193542463169810432

谷村先生人間味が感じられるツイートお気に入りである

心の哲学が何を問題にしているのか、とか全然興味なかったけど、おかげさまで浅いなりに理解できたし興味も出てきた。谷村先生が頑張らなければひっそりと専門書の棚に気付かれることなく置かれてるだけだったかもしれない本だったかもしれず、関係者谷村先生感謝しすぎてもしすぎることはないんじゃなかろうか。

ところで谷村先生が指摘した部分というのは、理系研究者人間であれば多かれ少なかれ感じていたが言語化するのがためらわれた結果、これまで表面に上ってくることのなかった問題のように感じる。

学生の頃、人文系研究室卒論科学研究室卒論とを同じ発表会で見る機会があったけど、科学系の教授の人文系の発表への容赦ないツッコミを思い出した。

用語定義しろ立論にしろ結論を導く論理しろ君たちあまりに緩すぎないか?というのが共通する雰囲気だと思う。

科学が発達していなかった昔、哲学科学がまだ扱えない領域を先んじて論理の力で掘り起こす役目を担っていたと個人的には思う。(谷村先生の期待もこういうものではなかっただろうか。)

だが色彩論でのゲーテニュートン批判とか、時間論でのベルクソンアインシュタイン批判とか、科学哲学に先行して真理を掘り起こした結果、取り残された哲学が宙ぶらりんのままになる状態19世紀以降は顕著になってきたんじゃねえかと思う。まあ哲学のことはよくわからんのでアレだが。

ベルクソンアインシュタイン対話翻訳ネットで拾って読んでみたが、ベルクソンが長く理解しにくい文章で考えを述べる一方、アインシュタインは明晰で短い文章でバッサリと切っていて既視感がすごい(語彙力)

今、AIとか脳科学研究が進んで、心に関する諸問題哲学ではなく、科学俎上で実際に解決される可能性が高くなってきたと思われる。

意識ハードプロブレムとかも、哲学からの「まだまだ科学に扱えないものがあるんだよ!!」という断末魔叫びのようにも感じられる。

だが科学は進む。

意識問題も脳というハードウェア上に構築されたニューラルネットワーク状態空間として科学領域に取り込まれ哲学領域はまた一歩小さくなっていくのだ。

地動説人間の住む地球宇宙の中心ではなくなったように、進化論人間が神に作られた特別存在ではないことがわかったように、有機物生命作用なしに合成できることがわかったように、意識もまた特別な何かではなく、我々自身哲学的ゾンビなのだということを認めざるを得ない瞬間が必ずくるだろう。

キリスト教根底にある思想最後まで魂の特別性に拘泥するかもしれないが仏教だと五蘊皆空と思えばどうということもない気もする。

まとまらず終わる。

2019-11-10

指導教員が信用できないので研究やめたい

大学院指導教員ゼミ指導あんまりにもずさんで,ほとほと困っている.

 

一応理系の専攻なんだけど実験は誰もしてなくて,

代わりに各指導教員はなんかしら専門知識を身に着けている(ということになっている).

  

で,うちの教員場合それが「アンケート設計」と「統計処理」なんだけど,

アンケート設計統計処理もその解釈も,まー適当なんだよね.

 

質問項目は恣意的な内容ばっかりで,

地球では1901-2010年の約100年の間に19cm海面が上昇しました.これは地球温暖化が原因です.これを踏まえてあなたは,レジ袋を貰わずマイバッグで買い物しようと思いますか?」

タバコ副流煙には、主流煙よりもずっと多くの有害物質が含まれています.これを踏まえて,あなた分煙に協力しようと思いますか?」

みたいな聞き方を平気でする.

 

アンケート結果に対する統計処理杜撰で,

回帰分析ひとつ取っても標準化係数とその有意確率しか見ない.

決定係数がどんなに低くても気にも留めない.

決定係数が負の分析結果を掲載した論文査読通っちゃったところなんかも見た.

分散分析なんかも頻繁にやるのにゼミ中"交互作用"って言葉を一度も聞いたことがない.

ニューラルネットワーク分析の仕組みがブラックボックスから信用できないんですよね」だって?いやいやあんたt検定の仕組みも説明できないんじゃないんですか?

アンケートの打ち込み終わったなら,○○分析と××分析と△△分析,全部1日で終わりますね」?そりゃ多重共線性のケアとか決定係数とか気にしないあんたの適当回帰分析なら1日で終わるでしょうけど?

 

そんな適当分析で相関を作り出して,

自分たちに都合の良い解釈をして

「良い結果出ましたね!」とか抜かしたりする始末.

 

その教員とはB4からの付き合いで,最初指導内容に違和感なかったんだけど

他所研究室の話とか,真面目にデータマイニングやってる先生の話とか聞いて,

最近になって自分のところの研究をちっとも信用できなくなってしまった.

 

こんな教員でも「結果」さえ残してしまえば出世できてしまうのが研究職というものらしく,

去年,准教授から教授に昇進している.今まさにノっている教授,というわけであるこちらとしては非常に面白くない.

あの人が学術的にやっていることといえば,ゼミ学生が「作り出した」相関を世に公表していることくらいなのに.

 

そんなこんなでこの人の下で研究なんてまっぴらごめんなんだけど,

もうM111月なんだよなあ.

大学院最初からやり直すのも,こんな理由で1年分納めた学費おじゃんになるのは嫌だし,

かといって思い切って退学してしまうのも将来性がなさすぎる.

2019-10-19

anond:20191019183452

自分機械学習に詳しいかどうかはわかりませんが,わかる範囲で書きます

質問テキストを投げるとそれに一番見合ったFAQページのリンクタイトルを表示してくれるチャットボット的なプログラム

チャットボット」はただの UI であるので

を実現する事が目的だと考えて話を進めましょう.

一般的にこのタスク類似文書検索と呼ばれていますブックマークコメントでは「ElasticSearchを使え」と言われています.ElasticSearch の More Like This Query 機能を使うことで類似文書検索が実現できるようです.あとはパラメータを調整することで思い通りの結果が得られるのではないでしょうか.

より高度なアプローチを取るのであれば,BERT と呼ばれるニューラルネットワークモデル活用した類似文書検索可能です.こちらのブログ (ElasticsearchとBERTを組み合わせて類似文書検索 - Ahogrammer) が参考になるでしょう.

しかしこれだけで終わると悲しいのでもう少し機械学習の話をすることにします.

機械学習的にこの問題に取り組むには順序学習 Learning to Rank という問題を解く必要があります.順序学習google 検索にも使われている機能です.

これは,「入力 x に対して N 個の候補 y_1, y_2, ..., y_N を類似している順に並び替えるようなスコアを出力する関数 f(x, y_i) を学習する」というものです.

More Like This Query 機能よりもこちらのアプローチが優れているのは,前者はどうパラメータチューニングしようと「類似している文書しか得られないのに対して,後者は(先程引用したような)「見合った」を明示的にデータとして与えてランキング学習できる,という点です.

学習データとして「この質問のに対してこの FAQ ページがもっとも見合っている」「この質問に対して A と B ふたつの FAQ ページがあるが,B より A の方が見合っている」「この質問に対して見合った順に全ての FAQ ページを並び替えたもの」といったデータを大量に準備することで,「見合った」を学習することが可能です.

しかこちらも ElasticSearch の機能に搭載されているようです.ありがとう ElasticSearch.お疲れ様でした.

もしあなたが ElasticSearch を使うのではなく, Python を使って再実装したいと考えているのであれば,目印として必要ライブラリ概念を書いておきます

2019-10-04

anond:20191004150709

facebookの人は何故かコンセント抜いて解決したらしいけど、

現実問題作成したニューラルネットワークモデールは揮発性のモノじゃないか

インターナショナルネットワークを通して世界中拡散される可能性もゼロじゃないんだよなあ。

2019-08-30

anond:20190830071035

関係ないけど、ニューラルネットワークに向いてるGPUをくれ。

CPUじゃ脳のような処理してたらトロいだろ。

2019-08-15

anond:20190814115041

しかし実際の機械学習はそういうもんじゃないだろ、1トライニューラルネットワークの各パスを太く(細く)する1回の刺激に過ぎない。

多少のランダムを混ぜつつ100万のトライを経て疑似脳みそを鍛えたら、ある範囲ついては人間に似た判断ができる、というのが機械学習だと思うが?

※実際には、そういう100万トライを出来がいいAIが生まれるまでさらに何度も繰り返すわけだが。

2019-07-14

AI民主化

最近話題になってるこういうの見かけたんだけど

https://ai-scholar.tech/deep-learning/matrixflow-191/

この人は文系でも使えるAI製品を売り出してデータサイエンティストを全部失業させたいとか言ってる。

で1年くらい昔の話で申し訳ないんだけど、この人こんなことも言ってる

https://twitter.com/tdualdir/status/964134918266605568

この人の言ってる「DNNが任意関数表現できる」ってのはディープニューラルネットワークの層を深くすればするほど複雑な表現対応できて任意関数に近づけるってことだよね。

関数テイラー展開して項を増やせば元の関数に近づくみたいな話。万能近似定理とか普遍性定理かい名前のやつ。たしかに昔から言われてる。

でもどれくらい深くすればうまく近づけられるかってことは何も言ってなくて、既存手法よりもうまく行く理由もわかってない。

無限に深いDNNならどんな関数表現できる、なんて言っても実際にできなかったら使えないじゃん。

からこそ研究者現在進行形でいろんなニューラルネットワークを試してうまく行く条件を探してるわけ。

で、何が違うのって言ってるリンク先のスライド

https://www.slideshare.net/masaakiimaizumi1/ss-87972719

目的関数一定の条件下ならDNNが他のどの手法(最小二乗法とか)よりも一番うまく近づけられることを証明したって言ってる。

まりこれまで分かってなかったことを部分的に解明している。全然違う話。

書いてある数式が難しくて理解できなくても日本語のとこだけ読むだけでも全然違う話をしてることがわかると思うんだけど。文系ならともかく理系ならわかるでしょ。

数学ができるかよりも機械学習で何ができるのか理解してそれを活用できることが重要ってインタビューの中で言ってるけど、本人が理解してないじゃん。

何ていうかさ、知ったかぶってAIに強いですよってアピールたかったのかなって感じ。最近AIブームで目立ってるAI人材ってみんなこんな感じ。

数学に強い理系って経歴をこういうハッタリにしか利用できないのは悲しいよね。

AI理解解像度がこの程度の人間ソフト作ってAIを全くわからない人間に「はいあなたみたいな文系でもAI使えますよ!」って売りつける構図なんだけど、

最近良く聞くAI民主化って結局こういうことなの?

作る側も使う側も何も分かってなかったら成果出るわけないしすぐ飽きられそうなんだけど。

それともまだグーグルのAutoMLでも実現してない全自動で最適なニューラルネット学習してくれるAIプラットフォーム自分ゼロから作る予定なのかな?

無限に複雑なDNNなら任意関数表現できるって話とどういう条件でDNNが他の方法よりうまく行くって話の違いが分かってない状態じゃ厳しそうだけど。

これもゴールドラッシュときツルハシを売る奴が一番儲けるってやつなのかな。

でもよく考えたらこの手のソフトって昔からあるよね。結局使いこなせずに「コンサルタント」とか雇って月単価いくら万円で常駐させてしまうのはいいほうで、たいてい飽きられる。

手を変え品を買え同じことの繰り返しってことか。なんだ。

まあデータサイエンティスト全部失業させたいってのは同意。こういうハッタリが増えればすぐAI幻滅期が来てブーム終わるし。

早く役に立たないAI人材データサイエンティストツルハシを売る奴も共倒れしないかな。

まあツルハシを売るやつは目ざとく次のブームに乗り換えて同じことを繰り返しそうだけど。

2019-04-22

anond:20190422162635

直球でマジレスすると、人類はもう実時間自動モザイクできるところまで来ている。

マンティックセグメンテーションを調べろ。これは今流行AIの中のディープラーニングのなかのCNNコンボリューショナルニューラルネットワーク)の一種だ。

AIに「ここはモザイクかける場所ですか?モザイクかけない場所ですか?」とピクセル単位で教え込む。学習が終わった暁にはエロ画像入れるとモザイクするべき場所とするべきでない場所を分けてくれるはずだ。

分けてしまえばその周辺だけモザイクかけるのは簡単だ。

実現するには、モザイク前のエロ動画を準備し、動画全てのコマに対して全てのピクセルモザイクにするべきかそうでないか分類したデータを用意してくれ。そいつをもりもりAIに見せるんだ。

ものすごい演算時間計算量を食うと思うが、多分できる。だって、セマンティックセグメンテーションは自動運転に使えるぐらい、人と車と道路と空を実時間で見分けられるぐらいすごいんだから

でも寡聞にしてこの研究をやったという報告を見つけられないんだ。データさえ用意できればできるはずなんだけどなあ。

あ、認識率は9割とか9割9分とかしかないんで、捕まりたくなかったらモザイク領域時系列で平滑化というか多数決とっておいた方が良いと思う。

2019-03-29

anond:20190325155543

deep learning基本的には、入力と正解のセットをたくさん用意して疑似ニューラルネットワーク教育するものから入力に対する正解をあらかじめ決めているわけ。

から教育データセットを作成する時点でフレーミングに関する基準は含まれるよね。

2019-03-04

制服姿の女子高校生体育館の床で揃って土下座させられてる画像

ニューラルネットワークによる自動色付け」って引用レスしてる奴はセンスあるなと思った

2019-02-06

テスラアーキテクチャ

テスラの車は、トヨタメルセデスの古いプラットフォームから派生した純電気自動車だ。まあ、旧型カムリだ。各ECUインパネ(IC)間がCANバスで結ばれ、ゲートウェイを通して車内インフォテインメント(カーナビ)が接続できる。そして、ゲートウェイにはセンターコンソール(MCU)、自動運転モジュール(APE)が接続されている。まあマツコネみたいなものだ。ただし、通常のカーナビと違い、このMCUTegra 3(旧世代)または超高速なIntel Atomプロセッサ(現行)が採用されている(マジ)。そして、海賊版Ubuntu GNU/Linuxを実行している(マジ)。そしてLTE回線に直結し、テスラ本社サーバ(mothership.tesla.com)にOpenVPN接続している。

機能

LTE接続

古いモデル3G、新しいモデルLTEモジュールを標準搭載している。明示的に特別注文しない限り無効化や取り外しは行われない。本社Mothershipは各車の動作状況を監視操作するほか、オートパイロット起動通知を受け取り、またssh接続のためのパスワードを保持する。これによりファームウェアrootが取られた場合オーナーを蹴り出したり、あるいは事故発生時に「オートパイロットは(直前でエラーを吐いて運転をぶん投げたため)使用されておりませんでした」と発表するなどいち早くメディア対策を行うことができる。

アップデート

更新パッケージは前述のOpenVPN経由でダウンロードされ、その中にAPEファームウェアのほかにもドアハンドルブレーキインバータECUなどのファームウェアが含まれていれば、MCU更新処理を行う。これまでに配信されたアップデートには、Linux Kernelを含むMCUOS更新インバータ出力アップ(設計の三倍程度)、緊急制動距離の延長と短縮、自動緊急ブレーキの追加、自動運転の警告間隔延長・短縮(事故報道の頻度に応じて調整)、自動運転機能のものの搭載や根本的な入れ替えなどがある。現在仕様ではファームウェアバージョン表記はYYYY.WW.x.y.zで、GitコミットIDが末尾に付き、平均して月2回程度のローリングリリースが行われる。つまりリポジトリのheadがざっと社内検証を通るとLTEで降ってくる。非常にまれなケースでは社長(@elonmusk)の「やりましょう」ツイートから時間バージョンが上がる。

駆動

電気自動車なので、エンジンは搭載しない。代わりに車体下面にリチウムイオン電池パック(ノミナル電圧480Vまたは400V)を搭載する。パックは火薬ヒューズを含む高電圧コンタクタ(リレー)を介してモータおよびインバータ接続され、インバータモータ進角を監視しながらスロットル指示に合わせて三相交流電源を供給する。この辺りはCPUファンと変わりない。

https://anond.hatelabo.jp/20190206135710

2018-12-18

ニューラルネットワーク

人間の脳神経細胞を模したものを作ったら人間の脳っぽいことができた。これってすごくないか?鳥の真似をしたら空が飛べたというのと同じノリだと思う。科学というのは案外単純なものかもしれない。

2018-09-20

anond:20180920184911

次元空間上で物体を回転させたり、衝突させたり、自由落下させたりしたいときに使うとか。

あとは、簡易なニューラルネットワークを手作業で構築する場合とかだね。

2018-09-18

anond:20180918141224

機械翻訳は困難とされてきましたが、昨今話題Deep learningで状況は一変してます

Google翻訳ニューラルネット使って大幅に精度が向上してますし。

Googleが開発したPixel BudsやGoogleレンズは端末性能の制約上まともなニューラルネットワークを駆動できずに精度はイマイチでしたが、新型iPhoneNVIDIA RTX2080のようにニューラルネットに特化したチップを搭載する機器が登場し始めており、かつ5Gのようにリアルタイムで大量データを送受信可能通信規格が普及すれば携帯端末で大規模なニューラルネット活用可能未来は数年の内に来ます

特に難しいとされてきた意訳についても、Deep learningによって実現可能性が見えてます

キャプションから写真写真からキャプションを生成するようなニューラルネットが既に実用化されていますが、「英語キャプション写真日本語キャプション」というように生成すると、写真説明する英語文章から日本語文章を生成でき、かつ単語単位で変換しただけでは得られない同一概念を表す英語日本語文章が得られます。これは意訳とほぼ同義の結果が得られており、さらに一歩推し進めて「英語抽象概念抽象概念英語日本抽象概念抽象概念日本語」と学習すると、写真を介さなくても直訳ではない翻訳文章を得る事ができるようになります

また「日本語英語」「英語中国語」というふうに学習させたモデルを使うと「日本語中国語」についての翻訳も(学習していないのに)できてしまうという研究結果もあります

上記のような現状を鑑みると、実用的なリアルタイム翻訳端末の登場はもうすぐだと思います

anond:20180918103227

 Int8(整数8-bit)のドット積は、ディープラーニングのインファレンス(推論)向けだ。ニューラルネットワークでは、トレーニング(Training:学習)にはFP16(16-bit浮動小数点)など相対的に高いビット精度が必要だ。しかし、端末側での認識のための推論ではデータ精度を落としても認識精度はそれほど落ちないため、8-bit整数程度の精度が使われることも多い。現在GPUでは、推論向けでは8-bit整数(Int8)のサポートがカギとなっている。

https://pc.watch.impress.co.jp/docs/column/kaigai/1111755.html

2018-09-04

anond:20180904102056

近所の商店街組合理事だとか運営委員だとかやる程度の人間なら、そんじょそこらAIなんかメじゃないくらい大規模なニューラルネットワークを内蔵してるんやで。

学習能力は十分あるし、むしろこの3〜4年の大雨土砂災害の頻発からしたら、過剰学習してる可能性が大だなw

2018-08-23

anond:20180823204005

脳に電流流れるほどのショックを受けた・・みたいな表現をしている人がいるけど、

本当にそんな感覚になるんだよね。

40年生きてきて、2回だけ経験がある。

世界は○○である。と思い込んでいたのに、実は ○○じゃなかったという現実を知った時に、

脳内ニューラルネットワークが一気に回路を作り変えてるんじゃないか勝手に思ってる。

2018-08-11

医学部女性差別問題が起きてる今、昔俺が書いた日記を読んでよ!

から医者を目指す人の気がしれない

https://anond.hatelabo.jp/20171217013541

医者になるやつの気がしれないの続き

https://anond.hatelabo.jp/20171219000743

上の日記は近い将来、AI医者にとってかわられるって話ばかりです

今のAIって、機械学習とかニューラルネットワークとかDeepLerningとか言われてますがそれって結局は特徴量を覚えてパターンとして覚えて当てはめてるだけなんですよ

「それって何?」

っていうと、つまり微分なんです

微少変化を出して記憶しているだけ

パターン認識なんです

ところで話かわりますIQテストって要はパターン認識とその適用ですよね?

ちなみにおっさん小学校の時に130ぐらいでした(自慢)(でも東大はいけませんでした涙)(メンサとか無理涙)

あれは例題の変化を読みとって、そこから次を適用する

まり微分して、積分しているわけなんです

(通じなかったらごめんなさい)

今のAIってパターン認識の微分はできるんです

病気の診断って、結局パターン判断でしょ?

うそれは人間AIに勝てない時代になります

ただ積分はできないっぽい

(もしかしたら私の勉強不足でできてるのかもしれないけれど)

囲碁人間に勝ったAIalphaGoだって積分ができないから全てのパターンを超高速で計算して、それぞれの局面微分して評価して次の手を決めてるだけなんです

高度な資格必要職業って、結局記憶力とパターン認識じゃないですか

人間コンピューター記憶パターン認識で勝てないんですよ

それだけやってる人は職業を失うんですよ

という盆休みで嫁と子供実家に戻ってて自由に酔っ払ってるおっさん戯言でした!

積分力を鍛える!」

とかではなく、人間と今のAIの違いって何かを成し遂げるために試行錯誤する、その意思や実行力だと思うんですよね

人のできること、AIのできること、その棲み分けを上手くやればもっと素敵な未来が開けると信じています

2018-04-01

anond:20180401145223

ブコメ統計処理機能があれば「何度も言う」必要もなくなるのにな。

何かこう、ニューラルネットワーク記号論理のお化けみたいな奴で、

ブコメスター過去履歴からその人の思想主張を自動表示できる機能とか付けられないのかね。

ついでに発言ダブルスタンダード判別してくれると尚良し。

2018-03-15

anond:20180315120940

何かこう、ニューラルネットワーク記号論理のお化けみたいな奴で、

ブコメスター過去履歴からダブルスタンダード言動抽出判定できる機能とか付けられないのかね。

投稿する前にスペルチェックみたいな感じでマーキングしてもらえると非常にありがたい。

ログイン ユーザー登録
ようこそ ゲスト さん