はてなキーワード: 機械学習とは
自称インテリ語録は自分用コーパスの作成のために行っています。
意図は、箴言における「嘲る者(自分を賢いとみなし、他者を見下す傲慢な人)」を機械学習で見分けるモデルの作成です。
厳密なアノテーション基準はありませんが、アノテータがある程度の裁量で判断します。
「著作権侵害では?」と思われるかもしれませんが、差別は社会的に相応しくないため、コーパス作成は公益性があると判断し、また創作性のないものに絞っており、自己責任でやっております。
元々は自分の「自称インテリ」の概念の精密化のために行っておりましたが、Bing AIによって様々な分析をさせることが可能であることがわかったため、自然言語資源を作るという目標に変わりました。
Pythonの初歩を学ぶ→機械学習のサンプル(mnistなど)を少し動かす→機械学習に興味を持つ→機械学習を学ぶ
機械学習に興味が出なかった場合、上で作ったmnist+αなコードをAWS Lambdaで動かす。javascriptを学んで、推論する画像をアップロードして、結果をwebブラウザ上で表示してみる。
この時、サーバサイドの実装に興味を持ったか、AWSの動かし方に興味を持ったか、webブラウザに表示する部分に興味を持ったか、3通りくらいいると思う。
次はその技術を使って、別のものを作ってみる。AWSなら別のAWSのマネージドサービスや、Auth0で認証系を作ってサービスを拡張してみる。CloudformationやCDKをいじってみる。
サーバサイドの実装に興味を持ったら、機械学習結果をDBに保存したり、いろんな学習モデルを実行できるAPIを作ってみる。
javascriptならリッチな見栄えのUIを目指してみる、Next.jsなりに置き換えてみる。
関連ブクマ: https://b.hatena.ne.jp/entry/s/mainichi.jp/articles/20230822/k00/00m/040/214000c
アメリカと日本の大学における理系の研究で、盛んな分野のトップ5をそれぞれ箇条書きにしてお答えします。
一般的に言えば、アメリカの方が日本よりも大学の研究が経済に与える貢献度は高いと考えられます。その理由として、以下の点が挙げられます。
アメリカでは、大学の研究成果を産業界に移転する仕組みが整っており、特にベンチャー企業の創出や成長につながっています。例えば、スタンフォード大学やマサチューセッツ工科大学(MIT)などは、シリコンバレーやボストンエリアといったイノベーションの中心地に位置し、多くのハイテク企業やスタートアップ企業と連携しています。また、大学発ベンチャーの成功事例としては、グーグルやフェイスブックなどが有名です。
日本では、大学の研究成果を産業界に移転する仕組みが十分ではなく、特にベンチャー企業の創出や成長につながっていません。例えば、日本の大学発ベンチャーは、アメリカや欧州と比べて少なく、また規模も小さいです。その原因としては、日本の大学の知的財産管理やライセンス交渉の能力が低いことや、日本の産業界が新技術や新製品に対する需要が低いことなどが挙げられます。
以上のことから、アメリカでは大学の研究が経済に与える貢献度は高く、日本では低いと言えるでしょう。もちろん、これはあくまで一般的な傾向であり、日本でも優れた大学発ベンチャーは存在しますし、アメリカでも大学の研究が経済に貢献しない場合もあります。しかし、日本はアメリカから学ぶべき点が多いと思います。
アメリカと日本において、お金を生みやすい研究の分野は、それぞれ異なる傾向があります。
一般的に、アメリカでは、医学・生命科学、コンピュータ・情報科学、工学などの分野が研究開発費の多くを占めており、高い経済効果や社会的影響力を持っています1。
日本では、自動車やロボットなどの製造業に関連する分野が研究開発費の大部分を占めており、国際競争力を高めています。しかし、日本の研究開発費は、GDP比で3.3%と先進国の中で低い水準にとどまっており、基礎研究や新領域の研究に対する投資が不足しているという課題があります。そのため、日本では、エネルギー・環境、生命科学・医療、人工知能・ビッグデータなどの分野において、イノベーションを生み出すための研究開発費の拡充が必要とされています。
・端末がすぐ出せる
>> リモートワーク肯定派の奴らは自分たちだけが得になるから賛成しているだけで他の人達が苦しんでいても関係ないって顔している
それはそうだろ。公僕でもあるまい、他の人に構っているほど人生は長くない。リモートワークをしている人たちだけが得をしてて他の人たちが苦しんでいるという構図は、一方的かつ真偽不明すぎて理解に苦しむ。リモートワークで今まで水道光熱費を会社が負担していたのに、自宅勤務で手当もないので自腹になったって人もいるのでは?リモートワークで損をする反例は枚挙に暇がないと思うが。
>> 世の中には現場に出なければいけない仕事があるのに損する人たちを無視して声のでかい奴らだけの意見が通っていく
職業選択の自由は憲法で認められているのだから、損をする自覚があって忸怩たる思いをしているのなら、とっとと得をする仕事を自由に選べば良いのでは?
>> 一方でそのツケは現場の労働者が払わされているのが現状
>> 一度リモートワークをゼロにして1から公平な制度考え直すべきだろ
これだけ色々破綻している上で考え直すという公平な制度を是非拝聴してみたいところ。他人任せすぎだろ。
—
エッセンシャルワーカーの待遇を良くしろというのは、個人的には賛成である。そのために医療費負担を上げても、それは国民が今まで我儘言っていたツケなので仕方がないと思う。ロボット、機械学習、AIなど、あらゆる自動化、省力化に関わる先進技術でエッセンシャルワーカーのサポートができるようになるような分野に助成すればよい。お金がなくて医療が受けられず国家の人口は減っても、それがそもそもの妥当解であって、人類の向上心に任せた成長という意味では、医療費を上げてもエッセンシャルワーカーとそれをサポートする産業に、国家が惜しみなく投資をすると良いと思う。
増田はマテリアルインフォマティクスや超伝導の専門家ではないんだけど。
専門家からすると、常温ながら高圧下で超伝導の存在ですら怪しいのに、高圧ですらない報告は眉につばも付けたくなるだろう。(LK-99は本当に常温常圧超伝導を達成しているのか - 理系のための備忘録)
Cu_2S の一次転移を常温超伝導と見間違えたのでは?との報告が上がっている。(https://twitter.com/tjmlab/status/1689076343114493957])
LK-99に関連して、常温超伝導を示す物質を機械学習を使って見つけられないのかという疑問をはてなブックマークやTwitterなどで見かけた。
端的に述べると、機械学習を用いた物質探索は既に広く行われているが、今回のような未知の性質を有する物質の探索には不向きである。
物質探索で機械学習が注目されるようになったのも最近のことだ。
2019年には選択性の高い触媒を機械学習で予測する研究がScience誌に投稿されている。(高選択的な不斉触媒系を機械学習で予測する | Chem-Station (ケムステ))
物質の探索の他にも、生データの帰属やそこから得られたデータ同士の解析などにも機械学習が用いられている。
機械学習によって、経験によると勘とマンパワーと一握りの運で支えられていた「予測→合成→測定→解析」のサイクルを早められるようになった。
その一方で、より広大な未踏の探索領域が存在し、さらなるマンパワーが必要であることが明確化された。
HUNTER×HUNTERで暗黒大陸が明かされた状況に似ている。
機械学習は暗黒大陸の道案内役になりうるが、より効率的な探索のために実験や測定の自動化も必要となり、そのような研究も始められている。
機械学習が様々な物質を予測しても、その合成できるかは別問題だ。これは機械学習に限った話ではない。
理論的にすばらしい性質が予想された物質であっても、技術的に合成できない、合成できても予想された性質を示さないことは科学の世界ではあるあるだ。
原因は様々であるが解決のためには、技術の進歩とブレイクスルーが必要となるし、そもそも予想が間違っている可能性だってある。
たとえば、2000年にノーベル化学賞を受賞したポリアセチレンは、古くから量子化学的に導電性を持つだろうと予想されていたが、合成する方法がなかった。
1958年にナッタらが開発した触媒によって初めて合成されるが、粉末しか得られず電気特性を測定することができなかった。得られた粉末は溶媒にも溶けず熱で溶融もしないためフィルムにできなかったのである。
その後の1967年に白川らがフィルム化に成功し金属光沢を示すもののほぼ絶縁体であった。電気を流すにはドーピングという更なるブレイクスルーが必要だった。
機械学習は、目的とする性質を持った物質を探索することは可能だが、全く新しい性質を示す物質の予測には向いていない。
過去の結果から高い転移温度を有する物質を類推可能だが、これまでの超伝導とはメカニズムが異なるであろう常温超伝導を示す物質を予想することはできない。せいぜい異常な振る舞いを予測するくらいだ。
超伝導の恐ろしいところは2000年以降も様々な性質が予想され発見されていることだ。
例えば、ワイル半金属(1937年予想、2016年発見)、トポロジカル絶縁体(2005年提唱、2007年確認)、ネマティック超伝導(2016年発見)などなど。
全く新しいメカニズムによる性質に関するデータが無い以上、このような性質を示す物質を機械学習で探索するのは無謀だ。
もちろん、既存のデータをよくよく洗い出してみると、新しいメカニズムで上手く説明できるケースもあるが、それを機械学習へ利用するには・・・・・・。
最近は最前線から離れててあんまり追えてないけど、現役のときの2008年くらいから10年くらいの間で、仕事のやり方や設計の考え方が大きく変わったIT技術要素で、いまぱっと思い浮かぶのはこんな感じかな。
分野にもよるし、調査して試作した結果自分の業務には採用しなかった技術とかもある。流行ると思って使えるようになったけど流行らなかった技術を入れるとたぶんもっとある。
あと、新機種が出てOSが新しくなったり、ミドルウェアの新バージョン対応、テスト手法の進化もけっこうカロリー高いけどここには書いてない。
「自分はフロントエンド専門でReactしかやらない」みたいに分野を絞れば大分減るけど、その技術が何年持つかわからないから普通はリスクヘッジのために他の技術も齧らざるを得ないし、バックエンドとかの人と議論するのに結局他分野の知識もそれなりに必要。
NoSQL(memcached, Redis, Cassandra)
クラウドアーキテクチャ、XaaS(AWS, Google Cloud, MicrosoftAzure)
CI/CD(Travis CI, CircleCI, Jenkins)
トランスパイラ(Browserify, webpack, CoffeeScript, TypeScript)
型システム(Rust, TypeScript, Haskell)
オーケストレーション(Ansible, Kubernetes, Terraform)
機械学習(Python, MATLAB, 線形代数等数学知識)
SPA(React, AngularJS, Ember.js, Vue.js)
3Dゲームエンジン(Unreal Engine無償化、Unity5)の他分野への普及
GraphQL
機械学習ライブラリ(Tensorflow, PyTorch, Chainer)
Jupyter Notebook
NFT
バスケとバレーぐらい違う。水族館と動物園ぐらい違う。タピオカドリンクとみたらし団子ぐらい違う。
もっと言えばフレームワーク自体や検索エンジンとかエンジンを作り込む能力も上の2つと違う。
多分
スモールプロダクト系の考え方で大規模プロジェクトを管理しようとすると大失敗するし
大規模プロジェクト系の考え方でスモールプロダクトに入ったら無能になる
前者の方が馴染むまでが早いと思うけど
同業にわかるように書くなら
大規模プロジェクトはプロジェクト管理や工数管理や連携部署との調整やセキュリティ設計DB設計、監視設計、大量アクセスの際の耐久設計なんかが必要。toB開発であれば規模が大きくなればなるほど業務に対する深い理解も必要になってくる。ただこんなの全部できる人なんて居ないから、どうしてもどこかしらの領域に特化する人になる。他社連携含めた大人数のチームでの動き方も自然に身につかないといけない。
小規模プロジェクトは浅く広く知っておく必要がある。フレームワークだとかミドルウェアとか場合によってはSaaSの知見も必要。とにかく道具は多くもっておくことと基本的なインフラ構成くらいは知っておく必要がある。フロントだとかバックだとか言ってられない、大量アクセスとか特殊な設計とかは基本的に不要。
検索エンジンとか機械学習ゴリゴリ系は正直よく知らないけど、アルゴリズムや機械学習手法の知識だけでなく素早く手を動かして実験してとにかくプロトタイプを作ることが大事なんじゃないかと思う。知らないけど。Webのフレームワークだとかインフラの構成だとかの知識も要らんし結構別の世界何じゃないかと思ってる。