「CUDA」を含む日記 RSS

はてなキーワード: CUDAとは

2020-08-28

anond:20200828234518

Cuda<<<3000,4000>>>filter1(mem);

Cuda<<<3000,4000>>>filter2(mem);

Cuda<<<3000,4000>>>filter3(mem);

Cuda<<<3000,4000>>>render(mem);

ネット暴走族です。

2020-08-23

anond:20200823143629

200万ぐらいがいい。基本的に、CUDADirectXも一式やってきたから、大体のしごてゃできるとおもう。SIerまぁなんとか。200万円分だけ年間仕事したい。

2020-08-02

Direct3Dとか2Dができて 

CUDAできて

C++11系列ができて

Java vmが作れる程度

だといまレベルどのぐらい? 2ぐらい?3ある?

5はないとはおもう。みんなすごい。わからないことばではなししてる。

おしごとどうやってさがしたらいいかなぁ

2020-08-01

ヘテロ と よくある誤解

俺たちは扱えないわけではない、扱えるがゆえに面白みがない

その状態では、結局金しかない。が時代が変わった。16コアなんてつかわない。2-3個アプリを立ち上げるのが精一杯。普通に使うとな。

4倍SIMD4倍海王拳 普通はこれで足りる。8コアでいい。そもそも頂点計算のものが膨大な数。16コア。

しかGPUとのSyncより早く。まぁ 12コア3x4 4倍SIMDで4ターン。大差はない。価格も効いてくる。束ね方はまぁいい 1コアMaster 4コアSlave x 4倍SIMD これを3個同時 1つのアプリが14コアで2コアOS 頂点計算をしてCUDA演出

普通にできる 若い子でも3ヶ月研修期間

anond:20200801132517

難しい。IntelARMかでかき分けるプログラマーはすくなくなったし

Python2だからとかCUDAからとか、関係ないもんな

最初はさくさくできていたCUDAだったけどPythonやってすぐだったから、きついJUDAにしとけばよかったかもな

2020-07-12

さすがにCUDA1ヶ月コースはきつかった。意識障害しょっちゅうだけど、いろいろいわれなきゃわからなかったけど、けっこうダメージきてるね。

まぁとりあえず、現行の仕組みのリプレイスにむけて大幅前進

CUDAを1ヶ月で走り抜けて OpenCLに走り込むおれのみになれ、やすみあるわけねーだろ

2020-07-10

anond:20200710172035

GCPAmazon Linux比較したし

AMI比べるために ubuntuAmazon Linux比べたし 通常版と Deep learning AMIで比べたし

C++11とpthread比べたし ちょっといまCUDA比較してるけど

おおもとはなぜかBlogが立ち上がらなくなっただけ

ところでGCPってCUDAいく?

2020-07-09

anond:20200709090443

P2 instances, designed for general-purpose GPU compute applications using CUDA and OpenCL, are ideally suited for machine learning, high performance databases,

Powerful, Scalable GPU instances for high-performance computing

2020-07-08

acceleration burst Intel core

acceleration burst cuda kernel.

pass code. you are so beauty.

2020-07-06

拝啓 ↑

経験者でも だいじょうぶ!

あなたにもできるプログラム

 

レッツ CUDA!

2020-03-13

最近プログラミングって、無いものつくれなくない?

Python既存ライブラリをどう使うか。Rもそう。

WindowsプログラミングMSが用意したものだし。C#はそう。

文字列操作数値計算はまだ関数作れば、無いもの作った感はあるのだけど、グラフみたいな描画関係になると、自由度が一気に下る印象がある。

CUDA3Dは維持れるけど2Dいじりにくいとか。

2019-12-27

anond:20191227192853

C++メリットC++にくわえてC++Pythonインタプリタを作れる

PythonメリットPythonにくわえてCUDAJITC++みたいなもん)を呼んだりできる

 

Pythonのほうが環境ごとの差がすくないから楽に組める

C++のほうが環境ごとの特長を生かしたプログラムが楽に組める

2019-11-26

anond:20191126164617

吉に決まってる。

CUDAを使いたい人はみんなウィンドウズを使うんだろ?

えことやん。

2019-10-10

anond:20191010155824

AMD最近ROCmとかそんなんのCUDAが動くようになるドライバーを配布してるから

RX580世代ならNVIDIAより少し遅いくらいのイメージCUDAを動かせるはず。

CUDAの搭載量はNVIDIAよりもAMDの方が倍近く多いから、コスパという面ではRXシリーズの方が良い筈。(消費電力は少し悪い)

マイニング上がりならRX580でも1万円前後で手に入るし、機械学習マンは沢山買うのもアリだと思われ。

2019-03-20

”ソリーCUDA

”ソリーCUDA”との一致はありません。

2018-10-24

anond:20181011010934

結構よくまとまっているとは思うんですけど、博士学生からか少し偏りがあるので、もし参考にする学生が居たときのために、少し補足させてください(ちなみに私は本職です)。

分野について

挙げられている分野は、いわゆる古典的CGの分野の一部で、そこに当てはまらないものも沢山あります。例えば、3Dプリンタに関する技術とか(fabrication)、建築関係VR/AR、HCI、HPC/ハードウェア、computational photography、アート数値計算言語処理(CUDAの元はSIGGRAPH論文ですよ)などです。実際のところ、かなり色々なトピックがあり、この分野の研究者でも全てを挙げられる人は居ないと思いますトピックが違うと同じCG研究者でも話が通じない事もあります。他分野の専門家と組んで研究している人も多いので、かなり懐が広い分野だと思います自分の興味のあるもの+CG、という研究をしている人が多数居ます

なお、西田先生日本では有名なのかもしれませんが、国際的に著名な研究者は各分野で違いますSIGGRAPH/SIGGRAPH AsiaなどのTechnical Paper Committteeの名前をチェックすれば、最近勢いがある若手や著名な人がだいたい分かると思います自分の興味のある分野の研究者海外に居れば、留学しましょう。

論文事情

これは訂正された点を含めると、だいたい合ってます。訂正にあるように、基本的には、大きな学会のProceedingの論文 = ジャーナル論文なので、その場合ジャーナル論文としてカウントする人が多いです。ジャンル別の会議理論的な研究が発表されるかどうかというと、そうでもないでしょう。どちらかといえば、研究としてのインパクトが小さいが発表したいとか、SIGGRAPH/SIGGRAPH Asiaに落ちたので、再投稿というケースが多いです。国内学会雑誌はアレなので、英語文章が書けないと死にます

IFと業績事情

CGではIFを気にする人はあまり居ません。研究者としてのアウトプットは、国際的にはSIGGRAPH/SIGGRAPH Asia/TOGを含めた、主要な学会での論文の本数が重要です。Pacific GraphicsおよびEurographicsは、それぞれの地域ではそれなりに評価されますが、国際的には評価されない場合があります。あと、勘違いされているケースが多いので強調しますが、SIGGRAPH/SIGGRAPH AsiaでカウントされるのはTechnical Papersだけです。その他のプログラムは、参加したいなら出してもいいけど、研究業績にはカウントされません。その他のプログラムばかりで発表していて、Technical Papersで論文が出て無いのに、SIGGRAPH活躍していると強調している研究室(国内外にあります)は注意しましょう。分野全体の業績評価実態と違います

学位取得難易度は、研究室および大学によって大きく違います上記の著名な国際会議に通すことを期待している研究室だと、アイデア重要な分(データモデルを少し変えて、少し性能が良くなったぐらいでは論文は通りません)、他の分野より要求される能力は高めです。ただ、懐が広い分野なので、自分の得意なことを生かして研究ができれば、研究に没頭できて楽しく過ごせると思います。実際、活躍している人はそういう人です。標準的アウトプットとしては、1年あたり、ジャーナルになる学会に1本ぐらいでしょう。博士課程が3年なら3本ですね。リジェクトされるので、その倍ぐらいはプロジェクトをこなす必要があります

実装力は超重要です。アイデアを形にして実験出来ない人は苦労します。言及元に書いてあるものの3倍は実装します。

各分野の所感

研究歴史が長いトピック既存研究に対して新規性を出すのが難しいので、その分論文を書くのは難しいという、ごく当たり前な状況です。書かれているように、レンダリングや流体は難しいと認識はされていますが、それは歴史比較的長く、劇的な性能向上が難しいからです。逆に最近出てきたトピックの中だと、新しい応用を見つけてそれを古典的方法で解く感じの研究が多いです(3Dプリンタ向けのデザイン最適化など)。そのようなトピックであれば、面白い応用さえ思いつけば、既存研究との比較をあまりしなくても通る論文が書けるでしょう。いずれにしても、如何にして新しいアイデア(新しい理論手法であったり、新しい応用であったり)を思いつくかが重要です。

各分野の所感については、言及元は一学生感想で、それが分野全体としての共通認識かというと、そうではないように思います一口CGと言っても研究分野が多岐にわたるので、それぞれの分野の専門家に話を聞くのがベストです。

研究室で育ててきたエンジンがあるかどうかは(そしてそれを弟子に使わせるかどうかは)研究者によります。進学する際には、その辺をチェックしましょう。ただ、現在活躍している人には、自分で書きたがる人が多いです。「レンダリスト」という言葉は聞いたことがありません。

査読とか

だいたい正しいと思います。応用的な研究と言うと、表面的な印象を受ける人がいるかもしれませんが、ただ何かを達成すればいいというよりは、実際の問題を解けて理論的にも面白いという研究を目指す人が多い分野です。査読ではその両面が評価されるので、査読者によってどちらに重きを置くかも違い、皆を納得させる成果を出すのはなかなか大変です。

最後

CGは、研究を頑張って学会等に論文を沢山出せれば就職先も引く手あまただし、研究成果は専門外の人(例えば家族とか)にも分かりやすいし、自分の興味のある事をコアにして研究できる懐の広さがあり、とても楽しい研究分野です。どの分野で研究しようか迷っている人はぜひ!

2018-10-11

ディープラーニング勉強しようと思って

GPUつきのノートPCを買った。

20万円。

ネットTensorFlowインストール解説記事を見て、CUDAというのをインストールしたらWindowsおかしくなった。

仕方ないので、工場出荷時にもどす処理をやったらこんどはまったくWindowsが起動しなくなった。

どうしようないので、メーカーに修理にだすことに。

CUDAというのは、TensorFlowからGPUを使うドライバらしいけど、PCがもどってきてもCUDAインストールしたらまた同じことになりそうだし、GPUなしでTensorFlowを使うことになるのかな。

こんなことなら安い10万のPCでよかったわ。

2015-09-27

ホワイトカラー期間工になるな

ビッグデータ解析で統計が判る奴がほしい、AIに詳しい機械学習を使える奴が欲しい。

産業界とは言わなくても、一部の経営者が言うセリフっていつも同じだ。

経営者がやりたいのは世界の知識を増やすことじゃない。

経営者時間のパワーを知ってる。速度は力だ。

一瞬でブームに乗って金を集めて仕事にしてしまえば、ブームが終わるまで稼げる。

から絶対にそういう経営者の言うことを聞いて、将来を決めてはいけない。

いま日本に圧倒的に足りないのは人工知能に詳しい人材 - shi3zの長文日記

このブログエントリが、非常に典型的だ。逐一解説する。

自分会社に雇いたい、ではなく、日本人材として、と言う

もうひとつ盛りたいときには、世界ではこれから、と言う。

人材が足りないとは言うが、じゃあ具体的にどの程度足りないのか(つまり需要絶対数だ)は言わない

例えば、大雑把に大学生は50万人程度卒業する。就職希望者は38万人で、内定者数が35万人。

3万人の内定が無い学生が、全員AIディープラーニング)を学んだとして、活躍の場はあるか。

無い。

ドワンゴはここ数年エンジニアを30~50名採用している。

例えば、100社が同程度採用しているとしよう。3000人~5000人だ。

学習コストが低いと言う

専門的な研究は難しいが、そこまでは必要ないと言う。学ぶのは簡単だと。

逆に言えば、簡単な学習すら現在雇っているエンジニアにさせる気は無いという意味だ。

ここが一番のポイントになる。

まり、一部の経営者がほしいのは、オペレーターだ。ピペットドクターピペット土方)と同じ。

ある道具を上手に使える期間工が欲しいのであって、道具そのもの研究者は要らない。

そして、必要であっても雇っている労働者を習熟させる手間は惜しむ。

経営者必要技術は買ってくれば良い

技術を取り込むために買収するのは普通のことだ。

それが今後ずっと使えるか解らないから自分達で学習するのはもったいない

から、その技術を扱うのに長けた人間を雇えば良い。

ホワイトカラー期間工と言ったのはこのためだ。

だれでも学べる技術すら自分達の労働者には学習させない。そのコストをかけない。

まり新入社員に新しい技術を、アイデアと手数で一斉に形にする。

モノになるのは1つか2つあれば良い。モノにならなければ、切れば良い。

ダメだと思えば撤退する、損害が広がる前に見切ったほうが経営者としては有能だ。

当然その技術を扱う社員は、技術を持たない社員と同じに見える。

基礎の理解ではなく、具体的なツール名を言う

例えば、誤差逆伝播法について理解していて欲しいという言い方はしない。

Caffe、Pylearn2、Chainerいずれかのフレームワークが扱えて欲しい、と言う。

ツールが使えて欲しいのだ。CUDAコーディングが出来る必要もないが、チューニングはして欲しい。

そうすると、ツールが廃れた時、そのツールが使える価値ゼロになる。

技術者の長年の課題ではある(技術陳腐化は避けがたい)が、それだけを学ぶのは危険すぎる。

基礎を理解していればツールの習熟は早い。ツールだけしか使えなければ乗り換えは困難だ。

ホワイトカラー期間工になるな

こう言うと経営者に必ずこう反論される。

使えないより、使えるやつをオレは採る、と。

それはそうだろう。モノにならなきゃ切って当然と思ってるんだから

興味があったりやってみたいならやれば良い。ただし、基礎を疎かにしてはいけない。

現在ディープラーニングによる画像処理は、言ってみれば特徴量抽出マッチングだ。

原画像を変換しては特徴量を出し、組み合わせて覚えておいて、正解を探す。

正解を覚えさせる(結果の誤差をなくす)部分に1つアイデアが入ったことで一気に実用化が進んだし、できるとわかってから研究も盛んにはなった。

機械学習をやってみようと思った時の入り口として、フレームワークは手軽だし良い時代だ。

それがなくなった時にどうするか、だ。

経営者本心から流行りの技術が使えるヤツが欲しいと言うが、必要なくなれば切るぞ。

ログイン ユーザー登録
ようこそ ゲスト さん