はてなキーワード: GCPとは
たしかにAmazonとGCPが同時に落ちたときにAzuleに自動で切り替えて動くか?とか
sらにAzuleもおちたときにOracleに移行してオートスケールするか?とかあついよな。
タイトルの通り、同僚たちが勉強しようとしない。俺が社内勉強会的なことを主催しても盛り上がらずにお通夜状態。
別に得体の知れない知識を覚えようぜというのでなく、 AWSとか GCPとか Azureとかのむしろ現在一番流行ってる技術だ。
ちなみに今は別のクラウドサービスでサーバを借りて、そちらに会社のほぼ全システムがある。 S3や GCSも各種バックアップに使ってはいる。
それだけだと技術者として時代に乗り遅れてしまうので、 せめて新機能は AWSや GCPの便利なサービス使おうぜと言ってるだけなんだが、彼らからは「得体の知れない技術を導入しようとすんな」オーラが激しい。
特に俺と年代の近い30代半ばくらいのメンバーがきつい。あからさまに嫌そうにして、勉強会では「Amazon にロックインされてない?」「Googleがいつまで続くかわからないよ?」なツッコミが恒例だ。知らんわ。
そのくせ社長や役員の前では「これからはクラウドが〜」みたいなポイント取りをする。いやお前この前までログインの仕方も知らなかったろ。
ちなみに同僚みんながこうではなく、ダメ元で新卒2年目の子に教えてみたらサーバレスでサクッとシステム作ってくれて救われた。こんど資格試験も受けるとか。こうやって味方を増やすしかないのかな?
作るだけなら機械学習を用いない方法も用いる方法もあるが、箇条書きの下に書かれた「習得メイン」というのが一番のポイント。おそらく機械学習の習得を指していて、要するに、機械学習を使って何かを実装するというのが前提にあるのだろう。
その上で外部サービスを使わないということなら、AWSやGCPのチャットボットサービスを使わないということなので、誰かが公開してくれている学習済みモデルを使った転移学習でできないかと私なら探ってみる(クラウドサービスの習得も大きなトピックではあるとは思うが)。
勉強期間はそれほど必要ない。ほとんどは、既存のツールを探してどう使ってどう組合わるかと調べる時間に費やされるだろう。ただ、学習データを自分で手動入力するところが重たい。技術習得メインのわりに、ここに大量に時間を使うのはもったいないと思うが、前提ならしょうがない。
学習データを作るところの時間次第だが、精度を気にしないとあるので、でたらめな回答でもいいからとりあえずなにかテキストを投げたらFAQのリンクとタイトルを返してくれるというのが、内部的に何かしらの機械学習のアルゴリズムを経て学習された多項分類器のOutputとしてでてくるのを確認するまでなら、記載の制限を考えても1日2日でできるレベルではなかろうか。
サンキュー自信ニキ。mstdn.jpに行けばいいのね、見てみるわ。
Herokuもクレカ登録せずGCPも無料しか使わないドケチ社会人の俺はやはり運営はしないでおくと思う。ただ承認欲求が劇的に満たされそうだなと思えればやるかも。
今日、牛丼を食べながらふと気がついたのですが、もしかして我々の業界は異常なのではないでしょうか?
サービス名、技術名はスキあらば3文字って感じだし (AWS, EC2, EKS, GCP, GAE, GKE k8s, C2C, CPU, GPU, SPU...)
会社名もソフトウェア名も連想できるってものじゃないし (PostgreSQL, MySQL, Redis, etcd, Consul, HashiCorp, Vagrant, GitHub, CircleCI, FreeBSD, CentOS, Ubuntu, Linux, Couchbase, Hive, Hadoop, Vagrant...)
みんな普通にPOSIX互換なコマンドをペシペシしているし (cd, cp, mv, pwd, mkdir, ls, vi を更に謎の数文字のオプションも含めて覚えているわけで)
それも特に覚えようとして覚えてきたわけでもないじゃないですか。
気がついたら覚えているわけで、手に身についているわけで。まるでポケモン151匹を勝手に覚えてしまったあの頃と同じようなノリで謎の英単語や謎の羅列を身に着けてしまっている訳ですよ。
何ら疑問に感じてなかったんだけど、普通に好きじゃないとできないよね。
で、思ったんだけど、インターネット小話で聞く「全然興味はないけどSEになっちゃいました」みたいな人ってガチで苦痛なんじゃないだろうか…
(未だにそんな人を見たことが無いから都市伝説だと信じてるけど)
別に周りにそんな人が居るわけじゃないけど、新卒が入社してくる季節ってことでふと気になりました。
おしまい。
お得意のダンピングをやらない程度の覚悟しかないってことは、xboxの「Power of the cloud」と同じようにデータセンターのリソースの空きを収益化する程度の価値しかないってことだな。
「Power of the cloud」はAzureが成長するに従って風化していったけど、これもGCPの成長と共にリソースの価値を下げる邪魔者扱いを受けて廃れていくだろう。
クラウドゲーミングって難しいよな。
コンソールを何度も買い換えなくてもいい、って言うメリットを押し出すためには比較対象となるコンソールの価格が定期的な買い換えを躊躇するほど高くないと効果が薄い。
5〜10年に5万円程度の買い換えじゃ「クラウドゲーミングじゃなくていいや」になりがち、って言うのが今までのクラウドゲーミング市場の屍が語る現実なんだけど、それを覆せるような魅力をこれから打ち出していけるのか?
SQL、JavaScript 、Excel VBA 、VB.NET、C#、Java。前者ほど触ってる期間が長い。SQLとJavaScriptが1年半くらい、Javaは参考書一冊読んだくらい。
Webで言うとフロントはAngularが少し分かる。サーバーはExpressが少し分かる。
RDBはテーブル15個くらいの社内向けWebシステムを一人で組んで現在半年以上運用中。今はテーブル40個くらいのシステム組んでるところ。
LinuxはUbuntuなら少し分かるけど、Docker周りは手を出したことがない。AWSとかGCPとかも分からない。
実務経験は無いに等しい。独学とプライベートの開発だけでこれまでやって来た。
できれば茨城県南だとありがたい。誰か雇って下さい。
他のうだつの上がらないゲームストリーミングサービスと違ってワンチャンあり得るのは
数多のビジネスマーケットを焼き払ってきたGoogle様の得意技「ダンピング」が炸裂するかどうかが不明だから。
無料は厳しいにしても、データを囲うためにコストから考えてあり得ないレベルの低価格で攻める可能性は無くはないと思うので
もしそうなったらゲームストリーミングサービス市場を焼き払って覇者になるかもしれない。
ただ、正直そこまでしてゲームの進め方に関するデータを囲う意味があるかというと、頭の悪い俺には無いように見えるので、可能性は低いんじゃないかな。
今のAIの盛り上がりに浮かれてる人達は「スゲェ!」って言ってる人も居るけど、そのAI育てるためにはデータ喰わせて調教する必要があるが、ゲームの進捗に関するデータの保持形式が縛られて開発側に余計な面倒が増えないかというのが少し気になる。
AIに喰わすためのデータはキチッとフォーマットそろえる必要があるから、ゲームの進捗に関する部分とは相性悪そうな気がする。
既にわかりきってる事とはいえ、スピードの早い対戦系のコンテンツは絶望的。
でも、コマンドバトルのRPGとか、ターンベースのシミュレーションとか、比較的理想郷が近いタイプのゲームもあるのでモノによっては入力遅延より場所を選ばずに遊べる利便性が勝る場合も結構ありそう。
でも、グラフィックなり内部処理なりが高負荷のかかるコンテンツでないとデバイスからの解放のメリットが薄いので、そのフィルターも合わさるとゲームストリーミングサービスのメリットがデカいコンテンツの幅はかなり狭まるのが難点。
そして何よりこれ。どんなに大々的に発表されたって、メンツのためにズルズル延命させることがないGoogle様のご機嫌伺いながら金払える人がどれほど居るのか。
いくら世界中にDC建てまくってもリソースは有限なので、社内政治に負けて金引っ張れない、みたいなことにならないのかな?ってのが心配。