「ニューラルネットワーク」を含む日記 RSS

はてなキーワード: ニューラルネットワークとは

2020-05-07

anond:20200507152157

横だけど、ハードウェア進化でようやく現実的ソリューションになった感じじゃない?

ニューラルネットワークもQleaeningも古くからあるけど、ハードウェア実用に追いついた。

でも今は少し頭打ちな気がする。

理論が成長したら、また十年単位ぐらいで成長するかもね。

2020-03-15

anond:20200315080013

お前の頭の中のニューラルネットワークを取り出して使えば良いじゃん。

[]2020年3月14日土曜日増田

時間記事文字数文字数平均文字数中央値
00184111413605.5162.5
0163493878.435
0237304682.335
03132017155.220
041075275.238
05101133113.395
0632131641.124
0739222156.939
0882535965.430
09112739166.025.5
101431252287.637
11144938665.227
12130820663.124.5
131641033063.033
141211189998.338
151511320887.543
161811102160.925
171411009971.629
181881637987.131
191491227382.435
201131010989.539
21110821374.735.5
2212313244107.745
2392822389.433
1日2532294698116.435

本日の急増単語 ()内の数字単語が含まれ記事

高輪(5), 民青(4), ジェネラリスト(4), ゆかい(4), 3月13日(4), ニューラルネットワーク(3), イド(3), 静的(4), 非常事態宣言(4), 鞘(5), 義妹(3), 自己肯定感(28), WHO(12), 厚生労働省(7), コロナ(103), 新型(26), 条例(10), 重症(13), 買い占め(8), 収束(7), 新型コロナウイルス(12), 肺炎(11), 研究者(11), チャンネル(9), トイレットペーパー(14), 自粛(10), 検査(34), 専門家(17), ウイルス(16), 医師(15), 感染(36), モテる(11), 患者(15), 医療(14), 老害(9)

頻出トラックバック先 ()内の数字は被トラックバック件数

自己肯定感に関しては男の方が不利だろ /20200313202224(32), ■youtube始めたけどもしかしたら日本底辺かもわからん /20200314131039(13), ■学生の頃は全く勉強せずに30超えてから数学英語勉強してるんだけど /20200314090900(12), ■ /20200313204301(11), ■旦那マッチングアプリやってたんだけど /20200314130418(10), ■結局やらずに終わること、行かずに終わる場所 /20200314145025(9), ■anond20200314134502 /20200314134829(9), ■年下彼氏すげええええええ /20200304202343(8), ■自己肯定感鬱病レベルまで下げるのは「需要本質理解」だよ /20200314112554(8), ■「パートナーが支えてくれたおかげです」 /20200314194612(8), ■真面目にフェミニズムについて勉強したい /20200314120619(7), ■「コロナウイルスは、ある意味で痛快な存在」 /20200314101919(7), ■幸せになるからな。これから。 /20200314011635(7), ■ /20200314164915(7), ■綺麗になる方法教えてください /20200314175143(7), ■歴史肥大化 /20200314124212(7), ■女であることでずっと自己肯定感を削られてきたんだけど /20200314190122(6), ■anond20200314133533 /20200314171059(6), ■三大・興味ないけど何回も見かけるせいで正直ウンザリしているもの /20200314023742(6), ■子宮頸がん検診で処女がバレた /20200314201111(6), ■フェミ腐女子ダブスタいい加減にしろ /20200314140904(6), ■林先生 /20200313235711(6)

2019-12-23

AIはアホを最初学習する。

今日Twitter

https://mobile.twitter.com/hayato_itimonzi/status/1208661759776575493

……みたいなのが軽くバズってるのを見た。内容としてはAIヘイトナチズム簡単学習してしまうというものだ。

これが事実か虚偽かは瑣末な事なので論じないが、もしも事実とするなら理由簡単である

このAIが如何なるものを指すかは知らないが、どうせ今のAIというのは単なる学習プログラム以上のものではない。多少高度なものでもニューラルネットワーク系の神経学モデルにすぎないだろう。

まあ大体が人間の話す内容を理解して回答するのではなく、人間インターネット上に書いた文章を大量に集めた上で、その中から「数が多いパターン文章/類型学習して返す」という程度の能力しか無いのである

そして大体のAI設計者は、それを単に強大なマシンパワーでもって大量に学習させれば人間っぽくなる……と思い込んでるかのような、そういった単純設計しか行わない。

まりそもそもAIという名の「言語学マシン」でしかないのが、今のAI設計者のアイデア限界なのである

神経を模すだけで人間精神が完成するなら、脳がわざわざ大脳小脳なんて分化する必要もないし、虫だってサイズが大きければ人間レベルの知性になるはずだ?そんなわけがないだろう。アホか?

素人目線で言わせて貰えば、その程度の学習プログラムAIだなんだと言ってる人間の大半は、実際には本気で人間の知性を真似ようとしてない人間が大半だと私は思う。

まあ人間本来能力は素晴らしいものがあるので、ちゃんとしたガチ勢なら多少マシなプログラムを書いてると思いたい……というか、この情報って何十年か前の話だよね?マジで現状こんな程度のAIしか作れてないとか有り得ないでしょ…………

まあ閑話休題

それはそうとして何故に今の自称AIヘイトナチズム簡単学習するかと言えば答えは簡単で、ヘイトナチズムは「◯◯=□□」という単純な図式で構築可能からである

それも、これらの多くは物事を「Aは善、それ以外は悪」という二元論として構築されることが殆どだ。

例えば「黄色人種は最高!」とか「それ以外はクズ!」みたいな風にだ。

このような論理は単純であるが故に、意味理解を伴うことなく非常に容易に学習できる。しかコンピュータでなくとも、このような論理デジタル思考をする人間にとって非常に親和性が高い。

そして人種性別というのは人間の誰もが持っているので、これに対する意見の集積は容易である

これは人間であれば尚更で、仮に会話や文書の内容として直接そのような事を書かなかったとしても、そういった相手の特徴に意識を向けながら会話するだけで誤学習する事すらある。

そう、そもそもAIナチズムヘイト親和性が高いのではなく、ナチズムヘイトナショナリズムなどの単純論理それ自体が、ローコンテクスト認知機能学習機能に対して親和性が非常に高いのである

結論としては、人間AIを問わず、「◯◯=善(正)、それ以外は悪(誤)」という二元論は覚えやすい毒論理であり、そういう二元論自体学習しないようにすべきである

そういうことなのだ。とっぴんぱらりのぷう。

2019-11-17

哲学黄昏

http://www.phys.cs.is.nagoya-u.ac.jp/~tanimura/time/note.html

サーバメンテナンスみえないっぽいけどめちゃくちゃ面白いね。いまさらだけど。

谷村先生は本当にまじめな先生だな、と思う。

メタな話をすれば、哲学者側は最先端物理学者との対談で自分の論に箔をつけて業績にできるめったとないチャンスで、対する物理学者側は正直こんな本が出ても業績としてたいして価値があるわけでもなく、無難お茶を濁しても誰も何も言わないだろう状況へこのガチファイターの投入である。(ほめてる)

流血覚悟、魂をこめた渾身の右ストレート

そしてこの叫びである

https://twitter.com/tani6s/status/1193542355975950336

https://twitter.com/tani6s/status/1193542463169810432

谷村先生人間味が感じられるツイートお気に入りである

心の哲学が何を問題にしているのか、とか全然興味なかったけど、おかげさまで浅いなりに理解できたし興味も出てきた。谷村先生が頑張らなければひっそりと専門書の棚に気付かれることなく置かれてるだけだったかもしれない本だったかもしれず、関係者谷村先生感謝しすぎてもしすぎることはないんじゃなかろうか。

ところで谷村先生が指摘した部分というのは、理系研究者人間であれば多かれ少なかれ感じていたが言語化するのがためらわれた結果、これまで表面に上ってくることのなかった問題のように感じる。

学生の頃、人文系研究室卒論科学研究室卒論とを同じ発表会で見る機会があったけど、科学系の教授の人文系の発表への容赦ないツッコミを思い出した。

用語定義しろ立論にしろ結論を導く論理しろ君たちあまりに緩すぎないか?というのが共通する雰囲気だと思う。

科学が発達していなかった昔、哲学科学がまだ扱えない領域を先んじて論理の力で掘り起こす役目を担っていたと個人的には思う。(谷村先生の期待もこういうものではなかっただろうか。)

だが色彩論でのゲーテニュートン批判とか、時間論でのベルクソンアインシュタイン批判とか、科学哲学に先行して真理を掘り起こした結果、取り残された哲学が宙ぶらりんのままになる状態19世紀以降は顕著になってきたんじゃねえかと思う。まあ哲学のことはよくわからんのでアレだが。

ベルクソンアインシュタイン対話翻訳ネットで拾って読んでみたが、ベルクソンが長く理解しにくい文章で考えを述べる一方、アインシュタインは明晰で短い文章でバッサリと切っていて既視感がすごい(語彙力)

今、AIとか脳科学研究が進んで、心に関する諸問題哲学ではなく、科学俎上で実際に解決される可能性が高くなってきたと思われる。

意識ハードプロブレムとかも、哲学からの「まだまだ科学に扱えないものがあるんだよ!!」という断末魔叫びのようにも感じられる。

だが科学は進む。

意識問題も脳というハードウェア上に構築されたニューラルネットワーク状態空間として科学領域に取り込まれ哲学領域はまた一歩小さくなっていくのだ。

地動説人間の住む地球宇宙の中心ではなくなったように、進化論人間が神に作られた特別存在ではないことがわかったように、有機物生命作用なしに合成できることがわかったように、意識もまた特別な何かではなく、我々自身哲学的ゾンビなのだということを認めざるを得ない瞬間が必ずくるだろう。

キリスト教根底にある思想最後まで魂の特別性に拘泥するかもしれないが仏教だと五蘊皆空と思えばどうということもない気もする。

まとまらず終わる。

2019-11-10

指導教員が信用できないので研究やめたい

大学院指導教員ゼミ指導あんまりにもずさんで,ほとほと困っている.

 

一応理系の専攻なんだけど実験は誰もしてなくて,

代わりに各指導教員はなんかしら専門知識を身に着けている(ということになっている).

  

で,うちの教員場合それが「アンケート設計」と「統計処理」なんだけど,

アンケート設計統計処理もその解釈も,まー適当なんだよね.

 

質問項目は恣意的な内容ばっかりで,

地球では1901-2010年の約100年の間に19cm海面が上昇しました.これは地球温暖化が原因です.これを踏まえてあなたは,レジ袋を貰わずマイバッグで買い物しようと思いますか?」

タバコ副流煙には、主流煙よりもずっと多くの有害物質が含まれています.これを踏まえて,あなた分煙に協力しようと思いますか?」

みたいな聞き方を平気でする.

 

アンケート結果に対する統計処理杜撰で,

回帰分析ひとつ取っても標準化係数とその有意確率しか見ない.

決定係数がどんなに低くても気にも留めない.

決定係数が負の分析結果を掲載した論文査読通っちゃったところなんかも見た.

分散分析なんかも頻繁にやるのにゼミ中"交互作用"って言葉を一度も聞いたことがない.

ニューラルネットワーク分析の仕組みがブラックボックスから信用できないんですよね」だって?いやいやあんたt検定の仕組みも説明できないんじゃないんですか?

アンケートの打ち込み終わったなら,○○分析と××分析と△△分析,全部1日で終わりますね」?そりゃ多重共線性のケアとか決定係数とか気にしないあんたの適当回帰分析なら1日で終わるでしょうけど?

 

そんな適当分析で相関を作り出して,

自分たちに都合の良い解釈をして

「良い結果出ましたね!」とか抜かしたりする始末.

 

その教員とはB4からの付き合いで,最初指導内容に違和感なかったんだけど

他所研究室の話とか,真面目にデータマイニングやってる先生の話とか聞いて,

最近になって自分のところの研究をちっとも信用できなくなってしまった.

 

こんな教員でも「結果」さえ残してしまえば出世できてしまうのが研究職というものらしく,

去年,准教授から教授に昇進している.今まさにノっている教授,というわけであるこちらとしては非常に面白くない.

あの人が学術的にやっていることといえば,ゼミ学生が「作り出した」相関を世に公表していることくらいなのに.

 

そんなこんなでこの人の下で研究なんてまっぴらごめんなんだけど,

もうM111月なんだよなあ.

大学院最初からやり直すのも,こんな理由で1年分納めた学費おじゃんになるのは嫌だし,

かといって思い切って退学してしまうのも将来性がなさすぎる.

2019-10-19

anond:20191019183452

自分機械学習に詳しいかどうかはわかりませんが,わかる範囲で書きます

質問テキストを投げるとそれに一番見合ったFAQページのリンクタイトルを表示してくれるチャットボット的なプログラム

チャットボット」はただの UI であるので

を実現する事が目的だと考えて話を進めましょう.

一般的にこのタスク類似文書検索と呼ばれていますブックマークコメントでは「ElasticSearchを使え」と言われています.ElasticSearch の More Like This Query 機能を使うことで類似文書検索が実現できるようです.あとはパラメータを調整することで思い通りの結果が得られるのではないでしょうか.

より高度なアプローチを取るのであれば,BERT と呼ばれるニューラルネットワークモデル活用した類似文書検索可能です.こちらのブログ (ElasticsearchとBERTを組み合わせて類似文書検索 - Ahogrammer) が参考になるでしょう.

しかしこれだけで終わると悲しいのでもう少し機械学習の話をすることにします.

機械学習的にこの問題に取り組むには順序学習 Learning to Rank という問題を解く必要があります.順序学習google 検索にも使われている機能です.

これは,「入力 x に対して N 個の候補 y_1, y_2, ..., y_N を類似している順に並び替えるようなスコアを出力する関数 f(x, y_i) を学習する」というものです.

More Like This Query 機能よりもこちらのアプローチが優れているのは,前者はどうパラメータチューニングしようと「類似している文書しか得られないのに対して,後者は(先程引用したような)「見合った」を明示的にデータとして与えてランキング学習できる,という点です.

学習データとして「この質問のに対してこの FAQ ページがもっとも見合っている」「この質問に対して A と B ふたつの FAQ ページがあるが,B より A の方が見合っている」「この質問に対して見合った順に全ての FAQ ページを並び替えたもの」といったデータを大量に準備することで,「見合った」を学習することが可能です.

しかこちらも ElasticSearch の機能に搭載されているようです.ありがとう ElasticSearch.お疲れ様でした.

もしあなたが ElasticSearch を使うのではなく, Python を使って再実装したいと考えているのであれば,目印として必要ライブラリ概念を書いておきます

2019-10-04

anond:20191004150709

facebookの人は何故かコンセント抜いて解決したらしいけど、

現実問題作成したニューラルネットワークモデールは揮発性のモノじゃないか

インターナショナルネットワークを通して世界中拡散される可能性もゼロじゃないんだよなあ。

2019-08-30

anond:20190830071035

関係ないけど、ニューラルネットワークに向いてるGPUをくれ。

CPUじゃ脳のような処理してたらトロいだろ。

2019-08-15

anond:20190814115041

しかし実際の機械学習はそういうもんじゃないだろ、1トライニューラルネットワークの各パスを太く(細く)する1回の刺激に過ぎない。

多少のランダムを混ぜつつ100万のトライを経て疑似脳みそを鍛えたら、ある範囲ついては人間に似た判断ができる、というのが機械学習だと思うが?

※実際には、そういう100万トライを出来がいいAIが生まれるまでさらに何度も繰り返すわけだが。

2019-07-14

AI民主化

最近話題になってるこういうの見かけたんだけど

https://ai-scholar.tech/deep-learning/matrixflow-191/

この人は文系でも使えるAI製品を売り出してデータサイエンティストを全部失業させたいとか言ってる。

で1年くらい昔の話で申し訳ないんだけど、この人こんなことも言ってる

https://twitter.com/tdualdir/status/964134918266605568

この人の言ってる「DNNが任意関数表現できる」ってのはディープニューラルネットワークの層を深くすればするほど複雑な表現対応できて任意関数に近づけるってことだよね。

関数テイラー展開して項を増やせば元の関数に近づくみたいな話。万能近似定理とか普遍性定理かい名前のやつ。たしかに昔から言われてる。

でもどれくらい深くすればうまく近づけられるかってことは何も言ってなくて、既存手法よりもうまく行く理由もわかってない。

無限に深いDNNならどんな関数表現できる、なんて言っても実際にできなかったら使えないじゃん。

からこそ研究者現在進行形でいろんなニューラルネットワークを試してうまく行く条件を探してるわけ。

で、何が違うのって言ってるリンク先のスライド

https://www.slideshare.net/masaakiimaizumi1/ss-87972719

目的関数一定の条件下ならDNNが他のどの手法(最小二乗法とか)よりも一番うまく近づけられることを証明したって言ってる。

まりこれまで分かってなかったことを部分的に解明している。全然違う話。

書いてある数式が難しくて理解できなくても日本語のとこだけ読むだけでも全然違う話をしてることがわかると思うんだけど。文系ならともかく理系ならわかるでしょ。

数学ができるかよりも機械学習で何ができるのか理解してそれを活用できることが重要ってインタビューの中で言ってるけど、本人が理解してないじゃん。

何ていうかさ、知ったかぶってAIに強いですよってアピールたかったのかなって感じ。最近AIブームで目立ってるAI人材ってみんなこんな感じ。

数学に強い理系って経歴をこういうハッタリにしか利用できないのは悲しいよね。

AI理解解像度がこの程度の人間ソフト作ってAIを全くわからない人間に「はいあなたみたいな文系でもAI使えますよ!」って売りつける構図なんだけど、

最近良く聞くAI民主化って結局こういうことなの?

作る側も使う側も何も分かってなかったら成果出るわけないしすぐ飽きられそうなんだけど。

それともまだグーグルのAutoMLでも実現してない全自動で最適なニューラルネット学習してくれるAIプラットフォーム自分ゼロから作る予定なのかな?

無限に複雑なDNNなら任意関数表現できるって話とどういう条件でDNNが他の方法よりうまく行くって話の違いが分かってない状態じゃ厳しそうだけど。

これもゴールドラッシュときツルハシを売る奴が一番儲けるってやつなのかな。

でもよく考えたらこの手のソフトって昔からあるよね。結局使いこなせずに「コンサルタント」とか雇って月単価いくら万円で常駐させてしまうのはいいほうで、たいてい飽きられる。

手を変え品を買え同じことの繰り返しってことか。なんだ。

まあデータサイエンティスト全部失業させたいってのは同意。こういうハッタリが増えればすぐAI幻滅期が来てブーム終わるし。

早く役に立たないAI人材データサイエンティストツルハシを売る奴も共倒れしないかな。

まあツルハシを売るやつは目ざとく次のブームに乗り換えて同じことを繰り返しそうだけど。

2019-04-22

anond:20190422162635

直球でマジレスすると、人類はもう実時間自動モザイクできるところまで来ている。

マンティックセグメンテーションを調べろ。これは今流行AIの中のディープラーニングのなかのCNNコンボリューショナルニューラルネットワーク)の一種だ。

AIに「ここはモザイクかける場所ですか?モザイクかけない場所ですか?」とピクセル単位で教え込む。学習が終わった暁にはエロ画像入れるとモザイクするべき場所とするべきでない場所を分けてくれるはずだ。

分けてしまえばその周辺だけモザイクかけるのは簡単だ。

実現するには、モザイク前のエロ動画を準備し、動画全てのコマに対して全てのピクセルモザイクにするべきかそうでないか分類したデータを用意してくれ。そいつをもりもりAIに見せるんだ。

ものすごい演算時間計算量を食うと思うが、多分できる。だって、セマンティックセグメンテーションは自動運転に使えるぐらい、人と車と道路と空を実時間で見分けられるぐらいすごいんだから

でも寡聞にしてこの研究をやったという報告を見つけられないんだ。データさえ用意できればできるはずなんだけどなあ。

あ、認識率は9割とか9割9分とかしかないんで、捕まりたくなかったらモザイク領域時系列で平滑化というか多数決とっておいた方が良いと思う。

2019-03-29

anond:20190325155543

deep learning基本的には、入力と正解のセットをたくさん用意して疑似ニューラルネットワーク教育するものから入力に対する正解をあらかじめ決めているわけ。

から教育データセットを作成する時点でフレーミングに関する基準は含まれるよね。

2019-03-04

制服姿の女子高校生体育館の床で揃って土下座させられてる画像

ニューラルネットワークによる自動色付け」って引用レスしてる奴はセンスあるなと思った

2019-02-24

人と会話ができていないような気がする

最近、人と話をしているときに、リアクションが期待するものから大幅にずれていることが多いなと感じている。表層的な部分しか伝わっていないというか。似てるけどそうじゃねえんだよなあという感覚。軽んじられてるのかなと思ってしまう。

言ったことを別の文脈で捉えられてしまったりして、それは別に言いたかたことじゃないんだよなと感じてしまう。

逆にぼくが人の話を聞くとき「それはどういう意味の○○?」とか聞き返したりして、他の人は理解できているのにぼくだけ理解できてないことが多くなってきた。聞き返して意味が同定できれば理解はできるので、コンテキストの把握が普通感覚からずれてきてしまっているようだ。これのおかげで自分バカになってしまったのだろうかと感じることがとても多い。そしてなぜその把握の能力がずれてしまたかも定かではない。

ぼくが話すときは、よく言葉冗長性を持たせて、相手意思疎通ができているか明確にしている。ここでいう冗長性を持ったものというのは例示とか単純化とかアナロジーとかで、前論を補強する言葉だ。この方法を編み出してからは、とんでもない形で伝わってしまっているということはなくなった、ように思える。

ただ、それよりも困っているのは、人の話をどうやったらちゃんと聞けるかということだ。

よくよく考えてみれば、今までちゃんと人の話を聞いていたかというと、全然そんなことはなかったように思える。なんとなく聞いていてなんとなく理解していたのかなと思うとゾッとする。

たとえば映画なんかもそうで、マトリックス仮想世界の話というのは大人になってから知った話だ。子供の頃はなんかよくわからないけどカッケーという気持ちで見ていたように思う。なのでアクションシーンについてはよく覚えていた。大人になってみると、つまり人間ノード見立てニューラルネットワークかというふうにも認識できる。他にも新鮮な気持ちで観れるものがたくさんあった。

なので、ちゃんと聞くのは大事だなと思ってなるべく一言一句聞き漏らさないように聞くようにしている。ただそれが良くないのか、相手が何を言っているのかよく聞き取れないことが多い。今まで自分はどうしてたんだと思うぐらい聞き取れない。「すみません、なんて言いました?」と聞き返す頻度が明らかに上がった。完全におじいちゃん状態

から結局あんまり人の話を聞けていない。

そして不可解なことにたまにぼくは日本語おかしいと言われる。自分ではまったく日本語おかしいとは思わないけど、人に言わせるとおかしいようだ。よくわからないが「てにをはができてない」と言われることが多い。個人的には、できていないことはないと思っているので、具体的にどこがと指摘されないことには直しようもない。

そういうわけで、ぼくはなんというか、日本人コミュニティから離れた場所ふわふわとしているような状態にいる気がしてならない。どのようにすれば会話が円滑に進むだろうか。

2019-02-06

テスラアーキテクチャ

テスラの車は、トヨタメルセデスの古いプラットフォームから派生した純電気自動車だ。まあ、旧型カムリだ。各ECUインパネ(IC)間がCANバスで結ばれ、ゲートウェイを通して車内インフォテインメント(カーナビ)が接続できる。そして、ゲートウェイにはセンターコンソール(MCU)、自動運転モジュール(APE)が接続されている。まあマツコネみたいなものだ。ただし、通常のカーナビと違い、このMCUTegra 3(旧世代)または超高速なIntel Atomプロセッサ(現行)が採用されている(マジ)。そして、海賊版Ubuntu GNU/Linuxを実行している(マジ)。そしてLTE回線に直結し、テスラ本社サーバ(mothership.tesla.com)にOpenVPN接続している。

機能

LTE接続

古いモデル3G、新しいモデルLTEモジュールを標準搭載している。明示的に特別注文しない限り無効化や取り外しは行われない。本社Mothershipは各車の動作状況を監視操作するほか、オートパイロット起動通知を受け取り、またssh接続のためのパスワードを保持する。これによりファームウェアrootが取られた場合オーナーを蹴り出したり、あるいは事故発生時に「オートパイロットは(直前でエラーを吐いて運転をぶん投げたため)使用されておりませんでした」と発表するなどいち早くメディア対策を行うことができる。

アップデート

更新パッケージは前述のOpenVPN経由でダウンロードされ、その中にAPEファームウェアのほかにもドアハンドルブレーキインバータECUなどのファームウェアが含まれていれば、MCU更新処理を行う。これまでに配信されたアップデートには、Linux Kernelを含むMCUOS更新インバータ出力アップ(設計の三倍程度)、緊急制動距離の延長と短縮、自動緊急ブレーキの追加、自動運転の警告間隔延長・短縮(事故報道の頻度に応じて調整)、自動運転機能のものの搭載や根本的な入れ替えなどがある。現在仕様ではファームウェアバージョン表記はYYYY.WW.x.y.zで、GitコミットIDが末尾に付き、平均して月2回程度のローリングリリースが行われる。つまりリポジトリのheadがざっと社内検証を通るとLTEで降ってくる。非常にまれなケースでは社長(@elonmusk)の「やりましょう」ツイートから時間バージョンが上がる。

駆動

電気自動車なので、エンジンは搭載しない。代わりに車体下面にリチウムイオン電池パック(ノミナル電圧480Vまたは400V)を搭載する。パックは火薬ヒューズを含む高電圧コンタクタ(リレー)を介してモータおよびインバータ接続され、インバータモータ進角を監視しながらスロットル指示に合わせて三相交流電源を供給する。この辺りはCPUファンと変わりない。

https://anond.hatelabo.jp/20190206135710

2018-12-18

ニューラルネットワーク

人間の脳神経細胞を模したものを作ったら人間の脳っぽいことができた。これってすごくないか?鳥の真似をしたら空が飛べたというのと同じノリだと思う。科学というのは案外単純なものかもしれない。

2018-09-20

anond:20180920184911

次元空間上で物体を回転させたり、衝突させたり、自由落下させたりしたいときに使うとか。

あとは、簡易なニューラルネットワークを手作業で構築する場合とかだね。

2018-09-18

anond:20180918141224

機械翻訳は困難とされてきましたが、昨今話題Deep learningで状況は一変してます

Google翻訳ニューラルネット使って大幅に精度が向上してますし。

Googleが開発したPixel BudsやGoogleレンズは端末性能の制約上まともなニューラルネットワークを駆動できずに精度はイマイチでしたが、新型iPhoneNVIDIA RTX2080のようにニューラルネットに特化したチップを搭載する機器が登場し始めており、かつ5Gのようにリアルタイムで大量データを送受信可能通信規格が普及すれば携帯端末で大規模なニューラルネット活用可能未来は数年の内に来ます

特に難しいとされてきた意訳についても、Deep learningによって実現可能性が見えてます

キャプションから写真写真からキャプションを生成するようなニューラルネットが既に実用化されていますが、「英語キャプション写真日本語キャプション」というように生成すると、写真説明する英語文章から日本語文章を生成でき、かつ単語単位で変換しただけでは得られない同一概念を表す英語日本語文章が得られます。これは意訳とほぼ同義の結果が得られており、さらに一歩推し進めて「英語抽象概念抽象概念英語日本抽象概念抽象概念日本語」と学習すると、写真を介さなくても直訳ではない翻訳文章を得る事ができるようになります

また「日本語英語」「英語中国語」というふうに学習させたモデルを使うと「日本語中国語」についての翻訳も(学習していないのに)できてしまうという研究結果もあります

上記のような現状を鑑みると、実用的なリアルタイム翻訳端末の登場はもうすぐだと思います

ログイン ユーザー登録
ようこそ ゲスト さん