はてなキーワード: アーキテクチャとは
はい、GPUの仕組みや重要性を分かりやすく説明した本や教材はいくつかあります。例えば以下のようなものが挙げられます。
1. 『GPUを支える技術』 株式会社ボーンデジタル (2023年)
GPUの基本的な仕組みから、最新のGPU技術まで幅広く解説されています。技術者向けですが、図解も多く分かりやすい内容です。
2. 『つくりながら学ぶ! PyTorchによる発展ディープラーニング』 小川雄太郎 (2020年)
機械学習フレームワークPyTorchを使ってGPUプログラミングを学べる実践的な書籍です。サンプルコードを動かしながら理解を深められます。
GPUの歴史から最新アーキテクチャまでを網羅的に解説。コンピュータサイエンスの基礎知識がある大学生・大学院生向けです。
4. Udemy「GPUプログラミング入門 - CUDAとOpenCLで学ぶGPUコンピューティング」
オンライン学習プラットフォームUdemyの動画講座。GPUの基本からCUDAやOpenCLでのプログラミング方法まで解説しています。
ただし、ご指摘の通り小中学生向けのGPUの仕組みを分かりやすく教える本は少ないかもしれません。GPUはCPUに比べると新しい技術なので、教育現場での普及はこれからという面があるでしょう。
技術の発展に合わせて、今後さらに分かりやすい入門書や子ども向けの教材が増えていくことが期待されます。ITリテラシー教育の一環として、GPUについても触れる機会が増えるかもしれませんね。
かわんごが去年書いとったわ
https://twitter.com/gweoipfsd/status/1721334849582321937
Winnyを規制してなければ、日本はITで勝てたと思っちゃう人が大勢いるところこそ、日本がITで全く勝ててない理由が現れているよね。ゲームのルールを全く理解していない。
https://twitter.com/gweoipfsd/status/1723495304052519229
動いたのはすごいけど、システムとして実用性を考えると、要するにP2Pによる分散型データベースということになると思うんだけど、処理能力も応答速度などの性能が低すぎて、かつ必要とするネットワーク帯域や電力が大きすぎて、採用するメリットは全くないというのが僕の見解です。
https://twitter.com/gweoipfsd/status/1721828013804012033
例えば、ユーザー数が増えたときに、ある特定のコンテンツを追加するのに必要な通信量はどうなるか分かりますか?あと、ユーザーが消費可能なコンテンツ量に上限がある場合、ユーザーが増えた場合に実際に消費可能なコンテンツ量とWinnyにより発生する通信量とはどのような関係にありますか?
ネットワークが大きくなると1件あたりのトランザクションコストが上がるという「スケールデメリット」はP2P系共通の問題ですので、winny単体の問題ではありません。重ねて言いますが、クソ設計です。問題外。
そのとおりです。winnyとかはインデックスどころかコンテンツまでキャッシングしていますから、ネットワークの大きさに比例して、ユーザーが追加されると、ユーザーに不必要なトラフィックがより発生するという構造になっています。根本的にスケールするのが困難な設計です。
https://twitter.com/gweoipfsd/status/1723083589364130152
そうです。本人がまったくつかわないデータをバックグラウンドで通信しまくるので、ネットワーク全体に本来不要なトラフィックが大量に発生します。P2Pが素晴らしいと当時言っていた人は、余った帯域を有効活用しているだけだと主張していたのですが、プロバイダ側はトラフィックの相当部分がP2Pにとられてしまって大迷惑。結局、P2Pソフトは余った帯域を無料で使って有効活用では無くて、プロバイダの投資したインフラにただ乗りして食い潰していたわけです。
https://twitter.com/gweoipfsd/status/1722887998738715117
中央サーバーを使わない技術が素晴らしいというのはP2Pのエヴァンジェリストたちの根拠のないイメージだけのプロパガンダであって、まともなエンジニアはあんなもの評価しません。本当にそれでなんらかの性能が向上するなら、あちこちで採用されています。
https://twitter.com/gweoipfsd/status/1722425316319391757
エンジニアとしてP2P系の設計はクソだし、革新でもなんでもないということを言ってるんですが。
https://twitter.com/gweoipfsd/status/1722589202712576251
ノード数Nのネットワークで1個のデータを追加するのにN個のノード全部と通信する必要があるアーキテクチャーを採用している限り、解決は原理的に無理ですね。少数のサーバ間だけをp2pにして、あとはクライアントサーバーにするか、DNSサーバのように階層構造を作るか。ただ、これはノードがダイナミックに変わる場合には採用しにくい。
Device Info は、高度なユーザー インターフェースとウィジェットを使用してモバイルデバイスに関する完全な情報を提供するシンプルで強力な Android アプリケーションです。たとえば、デバイス情報/ 電話情報には、CPU、RAM、OS、センサ、ストレージ、バッテリー、SIM、Bluetooth、ネットワーク、インストール済みアプリ、システム アプリ、ディスプレイ、カメラ、温度などに関する情報が含まれます。また、デバイス情報/ 電話情報は、ハードウェア テストでデバイスのベンチマークを行うことができます。
中身 : 👇 👇
👉 ダッシュボード : RAM、内部ストレージ、外部ストレージ、バッテリー、CPU、利用可能なセンサ、インストール済みアプリ & 最適化
👉 デバイス : デバイス名、モデル、メーカー、デバイス、ボード、ハードウェア、ブランド、IMEI、ハードウェア シリアル、SIM シリアル、SIM サブスクライバー、ネットワークオペレータ、ネットワークタイプ、WiFi Mac アドレス、ビルドフィンガープリント & USB ホスト
👉 システム : バージョン、コード名、API レベル、リリース バージョン、1 つの UI バージョン、セキュリティ パッチ レベル、ブートローダー、ビルド番号、ベースバンド、Java VM、カーネル、言語、ルート管理アプリ、Google Play サービスバージョン、Vulkan のサポート、Treble、シームレスな更新、OpenGL ES およびシステム稼働時間
👉 CPU : Soc - システム オン チップ、プロセッサ、CPU アーキテクチャ、サポート対象の ABI、CPU ハードウェア、CPU ガバナー、コア数、CPU 周波数、実行中のコア、GPU レンダラー、GPU ベンダー & GPU バージョン
👉 バッテリー : ヘルス、レベル、ステータス、電源、テクノロジー、温度、電圧と容量
👉 ネットワーク : IP アドレス、ゲートウェイ、サブネット マスク、DNS、リース期間、インターフェイス、周波数、リンク速度
👉 ネットワーク : IP アドレス、ゲートウェイ、サブネット マスク、DNS、リース期間、インターフェイス、周波数、リンク速度
👉 ディスプレイ : 解像度、密度、フォント スケール、物理サイズ、サポートされているリフレッシュレート、HDR、HDR 機能、明るさのレベルとモード、画面のタイムアウト、向き
👉 メモリ : RAM、RAM タイプ、RAM 周波数、ROM、内部ストレージ、外部ストレージ
👉 センサー : センサー名、センサベンダー、ライブセンサ値、タイプ、電力、ウェイクアップセンサ、ダイナミックセンサ、最大距離
👉 アプリ : ユーザーアプリ、インストール済みアプリ、アプリバージョン、最小 OS、ターゲット OS、インストール日、更新日、アクセス許可、アクティビティ、サービス、プロバイダ、レシーバー、抽出アプリ Apk
👉 アプリアナライザー : 高度なグラフを使用して、すべてのアプリケーションを分析します。また、ターゲット SDK、最小 SDK、インストール場所、プラットフォーム、インストーラ、および署名によってグループ化することもできます。
ディスプレイ、マルチタッチ、懐中電灯、ラウドスピーカー、イヤースピーカー、マイク、耳近接、光センサ、加速度計、振動、Bluetooth、WI-Fi、指紋、音量アップボタン、音量ダウンボタンをテストできます。
👉 温度 : システムによって指定されたすべての温度ゾーンの値
👉 カスタマイズ可能なウィジェット : 最も重要な情報を表示する 3 つのサイズの完全にカスタマイズ可能なウィジェット
👉 レポートのエクスポート : カスタマイズ可能なレポートのエクスポート、テキストレポートのエクスポート、PDF レポートのエクスポート
権限 👇 👇
READ_PHONE_STATE - ネットワーク情報を取得するには
BLUETOOTH_CONNECT - Bluetooth テスト
日本人特有の反応だという声も見られるが、youtubeのコメントを見る限りそうでもないらしい。
増田自身は特にどうとも思わなかったが、アップルに対するアンチの多さを考えると燃えるだろうなぁということは容易に想像できた。
あの映像は、CGであれリアルであれ、制作にはかなりの人数が関わっていることは間違いないだろう。
そうなれば、その関わったうちの誰一人としてあの映像の問題点を指摘できない空気であったとするならば、今のアップルは心理的安全性がとても低いであろう状況が予想される。
携わった映像クリエイターのうち一人として、楽器やカメラ、デジタルガジェットに精通する人間がいないだなんてことは考え難い。
それなのに、誰一人として、自分が大切にしているかもしれない道具が(きれいな壊れ方ながら)ボロボロにされる姿を見て不快に感じないわけがないのだから。
そうなれば答えは一つ。
誰一人として、あのプロモーション映像のディレクションに対して文句を言うことができない状況だったというだけのことだ。
権威あるディレクターがこれを作れと言えば中の人間は従わざるを得ず、炎上するかも知れない結果が目に見えていたとしても、ディレクターの前では口に出せないまま、むしろディレクターの才能を称賛しながら自分の地位を守る。
すでにアップルにはそういったYESマンしか残っていないのではないかとすら感じられるような、ひどいプロモーションだった。
クリエイターや道具の作り手のことをバカにしているとまでは思わなくても、「今のアップルの状況はひどい」ことをアピールするためのプロモーション映像だったと言ってよいだろう。
その視点から発表されたiPadを見てみると、円安という状況ももちろんありながらも、あまりにも市場価格から乖離した強気の価格帯でアップルオリジナルのMのつくCPUシリーズを強気に押し出す姿勢にも、それを誰も止めることができないような状況を垣間見ることができる。
nintendo switchとPS5を比べるべきではないのと同じように、iPadとゲーミングPCを比べるべきではないことはわかっているが、仮に今のnintendo switchの定価が6万円だとしたら、誰もがその強気な価格に驚くことだろう。
ipadにはipadにしかできないことや楽しみ方があることは十分に理解しているつもりであるが、それにしたって汎用性の少ない独自アーキテクチャで動く端末に、そこまでの投資をできるのはもはや信者しか残されていない。
特に今回は、proと廉価版(と言っても無印よりは高性能ラインアップではあるが)であるairの同時発表だったにも関わらず、どちらも庶民には手に届かないような価格設定だったことに、多くのユーザーは落胆したに違いない。
これがproと無印13インチの同時発表で、半年~1年後にair13インチの発表だったらまだ違ったのではないだろうか。
こうした事態さえも、アップル社内において声が上がらなかったとは到底考えられない。
しかしその声が届かなかったことを考えれば、そこに心理的安全性は皆無であり、独善的な経営判断が隠しきれていないと言えるだろう。
こうした強気な経営姿勢と相まって、既存の価値観をぶち壊すようなあの映像は世の中の反感を買って当然の結果だったと言える。
しかし、これから更にストア・ロイヤルティを強めようと一致団結するアップルの内側からの視点では、そうした世の中の冷めた視線は予想できなかったかも知れない。
それ自体は悪いことではないのだが、もしそこに心理的安全性が働いておらずそうした危機感を誰一人口にすることができない状況にあったのだとしたら、やはりこれは企業の危機管理意識の欠如によって引き起こされた当然の炎上であったと言えるのだろう。
アップルほどの大企業であっても、容易に心理的安全性が脅かされる状況に陥るという現状は、心理的安全性を研究(学習)している増田にしてみるとリアルタイムで参考にできる稀有な教材であり、これから先アップルが立ち直るのかこのまま崩壊していくのか、どちらにしても興味深い教材といえる。
皆さんも心理的安全性の観点からアップルの行く末を楽しんでみてはいかがでしょうか。
増田本人は今回のことでアップル製品に対する夢が冷めたので、同じ予算で14インチのゲーミングノートを買うことに決めました。
使いこなして初めてメリットがデメリットを上回るってものは多くてモダンフロントエンドもその一つ。
他には
去年から稼働している現場で、以前からあったReact Nativeの面倒を見ているんだがまあこれがひどい出来なんだ。
jQuery時代に見かけたようなコードをやたら見かけたので思わず懐かしくなってしまった。
リファクタリングしようとしたけど直す範囲が広すぎてアプリを壊しかねなかったので、早々に諦めてだましだまし保守をしていた。
そんな中今年に入ってアプリのリニューアルの話が出てきた。React Native捨ててSwift/KotlinやらFlutterに書き換えるとかそういうのではなく、デザインの刷新といくつかの機能改修。
このままだとアプリが更に魔窟化するので、マネージャーに色々相談したところいくつかの事実がわかった。
ということだった。
結局現状のまま進めるわけにはいかず、要件定義の傍らリファクタリング作業をしている。
そういう経緯もあったので、リファクタリングとテストの工数も積んだ上で見積もりだしてもらってる。
「レガシーアーキテクチャをモダンアーキテクチャに刷新」なんてよく聞く話しだけど、
実態は「長年の増改築とだましだましのリフォームが限界になってきたので新築で建て替えます」何だと思う。
最近は「Vue.jsからRemixにマイグレーション」なんて見かけるけど、悪いのはVue.jsじゃなくて禄に設計しないでコード書いてるエンジニアと、
リファクタリングには予算でないけどマイグレーションなら予算取れるという悪しき風習。
年がら年中フロントエンド刷新しているような会社は地雷なので行かないほうがいい。
anond:20240324030115 へつづく
色々開発に携わってきたが大体2パターンある
Case month when 1 then ~って感じのコード。thenの後にif文や更にCase文がある。この辺りに28日までとか書いてある。
ソースレビューがあったら指摘する内容だが機能していない場合はこのレベルが来る。オフショアで海外に出すとマジでこんなの書いてくる。指摘するとはいはい言うけどどうすれば良いのか悩む。
アーキテクチャ次第だが単に29までに変更すれば良い場合もあるが、たまに他にも影響したりして結構絶望する。月末日取得で書いてたら説教レベル
大体Case文パターンでロジックが考えられない場合国内外が提案してくるのがマスタ化だ。発注元も何故か柔軟な対応が出来るからと賛成してくる
結果年1や月1のマスタ設定が必要になり運悪いタイミングで担当者が閏年を忘れてると大体起きる。賛成した人らは運用しないので気楽だ。
こっちはマスタ設定すれば良いのだが、閏年ですよ忘れていませんかチェックは無いくせに登録出来るのは翌日以降チェックはしっかり入ってたりする。
設計段階で考慮すれば良いのだがマスタは何故か新人の仕事となり結果糞仕様にスキル不足が重なって復旧に時間がかかったりする。もちろん新人に罪は無い。日付をキーにするマスタなんて要件で考えた奴が悪い
閏年に影響されない業務やフローにする。そもそも年月日を指定するか2/28の次は3/1だと明示しない限りはシステムは閏年でバグを起こさない。
もし日付チェックを自作の変なロジックで作って発生させてたら20代なら許すが30代以上は即引退して他の仕事探したほうが良い。変に生き残って上流に行くと出来上がるのは意味の分からない事を言うステークホルダーという老害で将来はコンサルとか名乗って中小零細で惨めなシステム論を語る粗大ゴミだ
今までだと命令やデータはキャッシュに乗るのが前提だったが、AIだと、AIモデルがGB単位なのでキャッシュにそもそも乗らない。
いかにキャッシュヒットさせるか、DRAMとのレイテンシを隠蔽するかだったが、キャッシュに乗らないので、メモリ帯域勝負になる。
GPUが汎用性があるので使われているが、ゲームだとテクスチャをVRAMに乗せておいて、演算した結果はモニター側へ出力すればよく、
なんだかんだ帯域は足りていたが、AIだとチップチップ間の帯域が足りない。
ニューラルネットワークの接続自体をFPGA的に切り替えるのも手だと思うがモデルが大きすぎる。
未だに「謎の半導体メーカー」程度の認識の方になぜNVIDIAが時価総額世界4位なのかをあれこれ説明する必要があるので短めにメモ。半導体業界のすみっこの人間なので機械学習まわりの説明は適当です
・~1993年 AI冬の時代。エージェントシステムがさほど成果を挙げられなかったり。まだ半導体やメモリの性能は現代とくらべてはるかに劣り、現代のような大規模データを用いた統計的処理など考えられなかった。2006年のディープラーニングの発明まで実質的な停滞は続く。
・1995年 NVIDIAが最初のグラフィックアクセラレータ製品NV1を発売。
・1999年 NVIDIAがGeForce 256発売。GPUという名が初めて使われる。以降、NVIDIAはGPU業界1位の座を守り続ける。
・2006年 GPGPU向け開発基盤CUDAを発表。以降、その並列計算に特化した性能を大規模コンピューティングに活用しようという動きが続く。
・2006年 ディープラーニングの発明。のちのビッグデータブームに乗り、これまでよりはるかに高性能なAIを模索する動きが始まる(第3次AIブームのおこり)
・2006年 CPU業界2位のAMDがGPU業界2位のATIを買収、チップセットにGPUを統合することで事実上自社製品をNVIDIAと切り離す戦略に出る。CPU業界1位のインテルも、同じく自社CPUに自社製GPUを統合する動きを強める。NVIDIAはこれまでの主力だったGPUチップセット製品の販売を終了し、データセンター向けGPGPUのTeslaシリーズ、ゲーム用外付けGPUのGeForceシリーズ、ARM系CPUと自社GPUを統合したTegraシリーズの3製品に整理する。このうちTeslaシリーズが性能向上やマイクロアーキテクチャ変更を経て現代のAIサーバ製品に直接つながる。GeForceシリーズはゲーマー向け需要や暗号通貨マイニング向け需要も取り込み成長。Tegraシリーズは後継品がNintendoSwitchに採用される。
・2012年 ディープラーニングが画像認識コンテストで圧倒的な成績を収め、実質的な第3次AIブームが始まる。
・2017年 Transformerモデル発表。これまでのNN・DLと異なり並列化で性能を上げるのが容易=デカい計算機を使えばAIの性能が上がる時代に突入。
・2018年 IBMがNVIDIAと開発した「Summit」がスパコン世界ランキング1位の座を5年ぶりに中国から奪還。全計算のうち96%がGPUによって処理され、HPC(ハイパフォーマンスコンピューティング)におけるGPUの地位は決定的になる。NVIDIAの開発したCPU-GPU間の高速リンク「NVLink」が大規模に活用される。「Summit」は2020年に「富岳」にトップを奪われるまで1位を維持。
・2018~2021年 BERTやXLNet、GPT2など大規模言語モデルの幕開け。まだ研究者が使うレベル。
・2019年 NVIDIA CEOジェスン・ファン(革ジャンおぢ)が「ムーアの法則は終わった」と見解を表明。半導体のシングルスレッド性能の向上は限界に達し、チップレットを始めとした並列化・集積化アーキテクチャ勝負の時代に入る。
・2022年 NVIDIAがH100発表。Transformerモデルの学習・推論機能を大幅に強化したサーバ向けGPUで、もはや単体でもスパコンと呼べる性能を発揮する。H100はコアチップGH100をTSMC N4プロセスで製造、SK Hynix製HBMとともにTSMC CoWoSパッケージング技術で集積したパッケージ。※N4プロセスは最新のiPhone向けSoCで採用されたN3プロセスの1つ前の世代だが、サーバ/デスクトップ製品向けプロセスとモバイル製品向けプロセスはクロックや電流量が異なり、HPC向けはN4が最新と言ってよい。
・2022年 画像生成AIブーム。DALL-E2、Midjourney、Stable Diffusionなどが相次いで発表。
・2022年 ChatGPT発表。アクティブユーザ1億人達成に2カ月は史上最速。
・2023年 ChatGPT有料版公開。Microsoft Copilot、Google Bard(Gemini)など商用化への動きが相次ぐ。各企業がNVIDIA H100の大量調達に動く。
・2024年 NVIDIAが時価総額世界4位に到達。半導体メーカー売上ランキング世界1位達成(予定)。
こうして見るとNVIDIAにとっての転換点は「ディープラーニングの発明」「GPGPU向けプログラミング環境CUDAの発表」「チップセットの販売からコンピューティングユニットの販売に転換」という3つが同時に起こった2006年であると言えそう。以降、NVIDIAはゲーマー向け製品やモバイル向け製品を販売する裏で、CUDAによってGPGPUの独占を続け、仮装通貨マイニングやスパコンでの活躍と言ったホップステップを経て今回の大きな飛躍を成し遂げた、と綺麗にまとめられるだろう。
数年前は、TSP(Tensor Streaming Processor)と呼んでいたが、LPU(language processing unit)と名前を変えた?
数年前のチップをそのまま使い続けているか分からないが、同じならアーキテクチャは4年前のユーチューブを見るか、アスキーあたりの記事にある。
https://youtu.be/UNG70W8mKbA?si=9VFeopAiPAdn08i_
要は、コインパイラで変換が必要。なので提供されているLLMモデルが限られている。
PCIeボードが400万くらいらしいが、SRAMの容量が小さすぎて1ボードでは動かない。
DRAMのレイテンシがSRAMではないので早いのだ、という意見も見られてたが、
1チップのSRAM容量が小さすぎるので、チップチップ間、ボードボード間の通信レイテンシは必ずあるはず。
(数ヶ月前から性能上がっているのは、このあたりのチューニングのはず)
DRAMのレイテンシというが、これも今どきはレイテンシ気にしないように隠蔽するはず。
チームが小さすぎてハード作れなかった可能性もあるが・・・。DMACでチューニングしているか?
ボードにでかいDRAMが載せられるのであれば、そちらの方がボードボード間の通信時間より減るのでは?
GF使ったのは、おそらくAMD設計者が居たからでは。デザインルールどこ破れば性能でるかある程度わかってたとか。1GHzくらいなのは知見なしでやってるとそれくらいで上限くるのはそうだと思う。
チップの世代を更新するかはわからないが、兎にも角にも電力下げて、チップ大量に載せて、チップチップ間の通信時間を下げられるか。
社内のほぼ全員が社内ニートである会社で働いたことがあるだろうか。
強制的にクビになるまで意地でもしがみつくその根性、そして増やすだけ無駄な仕事を勝手に増やす愚かさ。
利益を追求するチームと、社内ニートとして仕事っぽいことをしているその他のチームがいるのである。
まあ滅ぶ寸前だったら転職すればよい。
しかしである。社内ニートの連中は暇な時間をなんとか仕事に変換したいらしい。
そこでここでは連中が駆使している暇つぶし創出のちょっとしたテクニック集を開陳する。
1. 議論
だれかが議論をするといい始めた時は、大抵暇な時だ。
社内SNSでテキストベースで議論し始めたり、誰か特定の人間を集めて会議室で議論したりする。
だがこれらの議論はあまり生産的ではなく、生産的であろうとするが、無能なので何も生み出さない。
ずれたことを言うことに慣れきっているので、こんな議論さえある:
「俺たちの目的は社会貢献だ。社会に貢献するためには社会の不安定要因を見つける必要がある。ハッタショが社会を不安定化させているのではないか。もしそうだとすると、ハッタショを更生するには周囲のサポートがいるのではないか。もしそうだとすると、サポート要員を確保するために人件費を与える必要がある。もしそうだとすると、利益になるビジネスモデルがない限りそのような人件費は払われない。もしそうだとすると、利益に頼らない方法を見つける必要がある。」
こいつがハッタショについて議論し始めたのは、普段からハッタショにムカついていてスカッとしたい以外の理由はなく、ハッタショを更生するビジネスなどやる気は微塵もない。
「もしそうだとすると」が多すぎて、前提が崩れるとすべての議論が無駄になるのである。
2. 調査
調査というのは議論の次に多い言葉だ。まともな調査をする人もいるが、大抵の場合は信頼できないソースを引っ張り出し、自説を補強する以外のことはしない。
そもそもググって情報を見つけることを「調査」と仰々しくいうほどのことではないだろう。だが、そういって仰々しくいうと、本格的な情報を調べるように見せかけることができる。
信頼できる調査とそうでない調査の違いは、その努力の方向性である。
一時情報源を見るために論文を翻訳する人たちや、バグの原因究明のためにデバッグしている人たちはかなり努力しているが、ツイートを引用するだけの連中は脳が足りない。
3. 発信
社会貢献は世間に影響を与えられてこそであるといい、匿名のアカウントを使って炎上や工作活動を行う。
これを最も好んで「暇つぶし」にしている人もいる。会社の目的に合致していればまだしも、ただのインプレ稼ぎに成り下がっていることが多い。
例えば画像生成AIでどんな絵が生成できるか検証してみました、みたいな連中だ。
まだ未検証のうちはそれでいいかもしれないが、何度も生成してどういうものか分かった段階でまだ続けようとしても生産的ではないだろう。
そもそも画像生成のAIをどうやって利益に変換するつもりなのか。そういう根本的な発想が抜けている。
社員のほぼ全員が社内ニートというのだから、そもそも会社としての仕事がなんであったのか誰もわからない状態になることがある。
そういう時に、誰かが暇潰しのための議論で「こういうツールがあったらなぁ」などといい始める。
それでエンジニアが実際にそういうツールを作ると、「なんかちょっと違うんだよなぁ、僕が研究してきた哲学をもっと含ませて欲しいんだよね」と理解不能なことを言う。
だからツールも作ったきりで発展しない。利益に繋げようという意欲がない。
「インフラの監視」といって、無理やり仕事を作り出そうとする人もいるが、インフラのインシデントが常日頃から膨大に発生するようなことはない。
監視のための仕組みをもっと徹底して導入するだの、k8sを使うだのいって無理やり仕事を増やそうとするが、コストにしかならない。
イベントを開いて人を集めれば、確かに社の知名度を高めたり、イベントから収益を得たりは可能だろう。
ただ利益の決定打には及ばない。場合によってはコストの方が高くつく。
被災地にプレゼントを、などと言うが、被災地が今欲しいのは水と食料であるという基本的な部分の認識すら欠如し、頓珍漢なものをプレゼントしようとする。
8. PoC
会社にまともな仕事は存在するのか?と疑心暗鬼になっているエンジニアがPoCをし始める。
これはこれで、後々役に立つことはある。実運用で適用可能な技術も多い。
しかし、一部のエンジニアは漠然と「すごいこと」をやろうとしており、それが厳密に言語化されないので、PoCの方向性があちらこちらに行く。
利益に貢献するようなサービスを運用しているとして、その運用時にマニュアル作業が発生していることがある。
これらを自動化するツールを作る提案をすれば、暇つぶしもできるし、生産性向上によって時間的余裕を創出できる。
まあ、時間的余裕を創出するからこそ社内ニートがより深刻化するのだが。
最新技術の勉強をするといって、技術書を読む。場合によっては、勉強会を開く。
例えばマイクロサービスアーキテクチャを正しく運用するには、とかそういったことだ。
ソフトウェアアーキテクチャにおいては、品質要件のトレードオフが重要な要素となります。
これは、全てのビジネス要件や状況に適合する万能のアーキテクチャは存在しないため、どのアーキテクチャ特性を優先するかという思考が必要になるからです。
品質属性要件(Quality Attribute Requirements: QAR)はアーキテクチャの原動力となります。
これらの要件を無視したり、不十分な定義にしたりすることは、失敗のもととなります。
そのため、アーキテクチャの選定を行う際には、機能的設計だけでなく非機能的内容も考慮する必要があります。
また、アーキテクチャの選定には「どのアーキテクチャ特性を優先するか」という思考が重要になります。
これは、全てのビジネス要件や状況に適合する万能のアーキテクチャは存在しないためです。