はてなキーワード: アーキテクチャとは
「君の言っていることはすべて正しいけど、面白くない。」
何年か前に読んだ雑誌のコピーで、当時かなりの衝撃を受けたことを覚えている。
今でもたまにこのコピーを思い出してドキッとすることがある。
エンジニアという職業では特に、論理的に考えることが必須なスキルとなる。
エンジニアの仕事は、正しい方向へ向かうための判断を繰り返すことに他ならない。
ビジネスのためにどのようなシステムを作るべきか?アーキテクチャの選定はビジネス課題の解決になっているか?アプリケーションの実装はビジネスが意図した動作をするか?
職業病かどうかわからないが、日常生活でも無意識に論理的に考えることが増えたように思う。
エンジニアの仕事では論理的思考は役に立つが、日常生活ではむしろ邪魔になることがある。
日常生活で正しさが求められるシーンは限られている。
正しいことが他の何よりも優先されるのかといえば、当然そんなことはない。
正しさがある程度証明されたからといって、それが何になるんだろうか?
共感を求めている人に正論を叩きつけたり、別のコンテキストに立つ人間同士が正論を言い合ったりすることは、ほとんど無価値だし、むしろ憎悪の原因にしかならない。
エンジニアの仕事でさえも、論理的思考が邪魔になる場面があると思う。
論理的に考えることは、ある程度の時間がかかる。正しさの判断をするために時間をかける必要がない場面は、無限にある気がする。
正しい判断が求められず、速攻で理由もなく決めてしまえばいいようなトピックに関しては、論理的思考がコストにしかなっていない。
つまり、合理的でないが論理的に判断をしてしまうケースはよくある。
それでいても論理的に考えたくなってしまうのは、論理的思考がすべてを解決してくれるように見えるからだ。
もしかしたら人は根源的に、自分が正しいことの保証を求めるのかもしれない。
夢の中でさえ論理的に思考していることがある。もはや論理的思考に操られているのかもしれないと思う。
論理的思考に操られないためには、「正しさの判断が必要か」を考えることだ。
論理的思考はすべてを解決するわけじゃなく、正しさの判断にしかならない。
「感覚で考えること」と「正しくないこと」の両方を肯定する必要がある。
まず、感覚で考えることは、論理的に考えることの真逆というわけでもない。
それに、もし考えが論理的に正しくなかったとしても「別にそれでいいじゃん」と思える寛容さや「間違ってるけど面白いね」と思える柔軟さを大切にしたい。
A:はい、私はアセンブリ言語のコードを記述することができます。アセンブリ言語は、コンピュータのプロセッサが理解できる低水準の機械語命令に直接対応するプログラム言語であり、CPUの命令セットアーキテクチャに依存するため、異なるCPUアーキテクチャに対して異なるコードが必要です。
以下は、x86アーキテクチャ向けの単純なアセンブリ言語の例です。これは、メモリの特定の場所にある2つの数値を加算して、結果をレジスタに格納するプログラムです。
Copy code
section .data
num1 dd 10 ; Define num1 as a double word (32-bit integer) and set its initial value to 10
num2 dd 20 ; Define num2 as a double word and set its initial value to 20
section .text
global _start ; Declare the entry point for the program
_start:
mov eax, [num1] ; Move the value of num1 into the eax register
add eax, [num2] ; Add the value of num2 to the eax register
mov [result], eax ; Move the value in eax to the memory location "result"
section .data
result dd 0 ; Define result as a double word and set its initial value to 0
このプログラムは、num1の値をeaxレジスタに移動し、num2の値をeaxレジスタに加算し、最後にeaxレジスタの値をresultメモリアドレスに保存します。
AI絵生成で遊ぼうと思ったらいくらぐらいの予算のパソコンが必要なの?
AI絵生成には、大量の計算資源が必要です。一般的に、高性能のグラフィックスカード(GPU)が必要になります。また、大量のRAMと高速なストレージも必要です。
必要な予算は、使用するAIモデルや絵の生成に必要な解像度や複雑度によって異なりますが、一般的には、数千ドルから数万ドルまでの予算が必要になる場合があります。
AI絵生成に特化したPCを作る場合は、GPUとCPUをバランス良く選び、RAMとストレージも十分な容量を確保する必要があります。また、オペレーティングシステムやソフトウェアの設定も最適化することが重要です。
ただし、クラウドベースのサービスやプラットフォームを利用することもできます。これらのサービスには、類似の機能を提供するツールやアルゴリズムが組み込まれており、必要な計算資源を提供してくれます。この場合、使用料金は生成する画像の解像度や量によって異なる場合があります。
具体的にいくら掛かるの
AI絵生成に必要なコンピュータの具体的な予算は、多様な要因によって大きく異なります。以下にいくつかの例を挙げます。
- 中級ユーザー向け: NVIDIA GeForce RTX 3070 GPU、AMD Ryzen 7 5800X CPU、32GB RAM、1TB SSDを搭載した自作PC。予算は約2,000〜2,500ドル程度。
- 上級ユーザー向け: NVIDIA GeForce RTX 3090 GPU、AMD Ryzen 9 5950X CPU、64GB RAM、2TB SSDを搭載した自作PC。予算は約4,000〜5,000ドル程度。
クラウドベースのサービス: OpenAIのDALL-E 3DやDeepDreamGeneratorなど、AI絵生成のクラウドベースのサービスを利用する場合は、生成する画像のサイズや品質に応じて使用料金が変動します。多くの場合、無料プランや月額数十ドルからの有料プランが用意されています。
これらの予算は、あくまで一例であり、為替レートや地域によっても異なるため、ご参考にしていただくことをお勧めします。また、AI絵生成には様々なアプローチがあり、各アプローチに応じて必要な予算も異なるため、具体的な予算については専門家に相談することをお勧めします。
日本在住の場合、AI絵生成に必要なコンピュータを購入する場合には、以下のような方法があります。
- オンラインショッピングサイトを利用する:Amazonや楽天市場などの大手オンラインショッピングサイトで、必要なパーツやPCを購入することができます。
- パソコンショップで購入する:PCパーツや完成品のPCを扱っている専門店で、購入することができます。日本には、ドスパラやツクモなど、多数のパソコンショップがあります。
- 自作パソコンの専門店で購入する:自作PCに特化したショップで、必要なパーツを購入して自分で組み立てることができます。代表的な店舗には、TSUKUMOやパソコン工房があります。
これらの方法を比較し、価格やサポートなどの観点から最適な方法を選択することをお勧めします。また、インターネット上には、自作PCの組み立て方法を紹介した情報も多数ありますので、事前にリサーチしてから購入することをお勧めします。
上級ユーザー向け: NVIDIA GeForce RTX 3090 GPU、AMD Ryzen 9 5950X CPU、64GB RAM、2TB SSDを搭載した自作PC。予算は約4,000〜5,000ドル程度。の発注書を作成してください。
はい、了解しました。以下が、NVIDIA GeForce RTX 3090 GPU、AMD Ryzen 9 5950X CPU、64GB RAM、2TB SSDを搭載した自作PCの発注書になります。予算は4,000〜5,000ドル程度とのことでしたので、最大限予算内に収めるように構成しました。ご確認ください。
【1. マザーボード】
ASUS ROG Crosshair VIII Dark Hero
【2. CPU】
【3. GPU】
NVIDIA GeForce RTX 3090
【4. メモリ】
G.SKILL Trident Z Royal 64GB (4 x 16GB) DDR4 3600
【5. ストレージ】
【6. 電源ユニット】
【7. ケース】
Lian Li PC-O11 Dynamic XL ROG Certified
【合計価格】
【備考】
以上が、NVIDIA GeForce RTX 3090 GPU、AMD Ryzen 9 5950X CPU、64GB RAM、2TB SSDを搭載した自作PCの発注書になります。ご確認いただければ幸いです。
マザーボードは、コンピュータの各パーツを接続し、制御するための基盤です。ASUS ROG Crosshair VIII Dark Heroは、AMD Ryzenプロセッサーに対応し、高速なデータ伝送を実現するPCI Express 4.0をサポートしています。また、USB 3.2 Gen 2x2、Thunderbolt 3、WiFi 6、10G LANなどの最新の接続規格にも対応しています。
CPUは、コンピュータの中枢部分であり、プログラムの実行や演算処理を行います。AMD Ryzen 9 5950Xは、16コア32スレッドで動作し、最大ベースクロック3.4GHz、最大ブーストクロック4.9GHzを誇る高性能なCPUです。
- GPU: NVIDIA GeForce RTX 3090
GPUは、グラフィック処理を担当するパーツであり、ゲームや動画の再生などに必要です。NVIDIA GeForce RTX 3090は、最新のAmpereアーキテクチャを採用し、リアルタイムレイトレーシングやAI機能を実現します。また、24GBのGDDR6Xメモリを搭載し、高解像度や高フレームレートのゲームにも対応しています。
メモリは、コンピュータが処理するデータを一時的に格納するパーツであり、多くの場合、大量のメモリを搭載することで高速な処理が可能となります。G.SKILL Trident Z Royal 64GBは、高速なDDR4メモリであり、容量も64GBと多くのメモリを必要とするアプリケーションやタスクにも対応します。
ストレージは、データを保存するためのパーツであり、高速なストレージを使用することで、起動時間やアプリケーションの読み込み速度を向上させることができます。Samsung 970 EVO Plusは、高速なNVMeインターフェイスを採用し、最大読み込み速度が3,500MB/s、書き込み速度が3,300MB/sを誇る高性能SSDです。
電源ユニットは、コンピュータに電力を供給するためのパーツであり、高性能なパーツを使用する場合は、電力消費量が増加するため、高出力の電源ユニットが必要になります。CORSAIR RM1000xは、高効率で安定した電力供給が可能な1000Wの電源ユニットであり、高性能なパーツを安定して動作させることができます。
- ケース: Lian Li PC-O11 Dynamic
ケースは、コンピュータのパーツを収納するためのパーツであり、デザインや冷却性能などが重要なポイントとなります。Lian Li PC-O11 Dynamicは、高品質なアルミニウム素材を使用し、美しいデザインと高い冷却性能を両立させた人気のケースです。
CPUクーラーは、CPUを冷却するためのパーツであり、高性能なCPUを使用する場合は、十分な冷却が必要になります。Noctua NH-D15Sは、高い冷却性能を発揮する人気のCPUクーラーであり、静音性も高いため、長時間の使用にも適しています。
追加ファンは、ケース内の空気の循環を改善し、冷却性能を向上させるためのパーツです。Noctua NF-F12 PWMは、高い静音性と高い風量を実現する人気のファンであり、冷却性能を向上させるのに役立ちます。
コンサルも込なら良いが大体は要件定義からだ。つまりお前らは要求定義は出来ている前提だ。なんも分からないから経営層や現場との橋渡しのみなら邪魔だから今すぐSE名乗るの止めて仕事辞めて田舎で畑耕せ。
AccessやFilemakerで弄れる程度でSE名乗るならせめて自社業務の流れや種類は把握しておけ。何聞いても現場に確認しますじゃ時間かかるんだよ。なんなら分かるんだ?別に業務フロー寄越せとか言ってないぞ。
割とマジで自分が経営層から何をシステム化してほしいのか分かってない奴が多い。体感5割以上。最近じゃインボイス対応。インボイス対応してください言われて現状や影響箇所は何をしたいか聞いたら「さぁ?」って言う。じゃ、何しにきた。挙句に「そのやり方も提案するのがシステム会社でしょ!」とキレる役職者まで。コンサルは契約に入ってないんだけどな。ちなみに別の会社でシステムのお偉いさんしてたとか言ってたがExcel方眼紙使ってたので速攻無能確定。おまけに技術も知識もアップデート出来てないし平気で偽装派遣みたいなこと言ってくる。前の職場どんなとこだよ
クラウドとか言語とかアーキテクチャとかフロントエンドもバックエンドも何も知らないなら勉強しろとも言わないが分かった風の口聞いてググった程度の知識でマウント取るな。むしろ都度説明求めろ。
ランニングやイニシャルコストの話で妥当かどうかをこっちに証明させるな。お前らで判断しろ。少なくともボッタクっては居ない。あと逆に原価厨みたいに人件費等々無視した計算もすんな。人はタダじゃない。
小売りとかだと土日もやってたりするけど対応ほしけりゃ契約時に言え。割り増すから。電話やメールでなくて後日文句言うな。あと平日業務時間外にZoomとかやるな。金寄越せ。
要件漏れとかあってこっちがリスケ等を要求しても承知しないでキレたり三顧の礼したりするの止めろ。そのバカみたいな時間を社内調整に回せ。夜の22時とかに泣きながらZoomでお願いしに来るな。不動産営業にでも転職しろ。
要件定義書、設計書、テスト仕様書、その他いろいろ作って会社で確認してもらってるよね。読め。だいたい書いてある。仕様漏れとかでこっちが記載してる言って読んでないってキレるな。あとどこの企業も読んでないとか言うな。ちゃんとしてるとこは読んでる。
大体馬鹿なユーザー企業はアジャイル開発何も知らないくせに「要件定義要らない、数週間で出来る、ドキュメントも要らない、仕様変更簡単」と思ってる節がある。なぜか最初にアジャイル開発で~とか言ってくることも。何もできないならウォーターフォールの方が数倍マシだぞ。アジャイル開発だとお前の役割重要になるんだぞ。ちゃんと管理出来るんか?だいたい動き出してからウォーターフォールの動き求めてきたりするw
ちゃんと要求まとめて要件定義から参加して受入まで出来たり、アジャイル開発ができるユーザー企業の社内SEなんて日本の中小企業の1割にしかいないと思っているので、自信ない人は是非パッケージに頼るかもっとたくさんお金払って全部お任せにしてください。
「つづき」で気になった箇所を深掘り。確認するに、専門家の監修体制の構築はそれほど難易度は高いように思えなかった。やはり「つづき」で応えてくれた「医療用の学習データをGPT側で定期的に用意できるか」が今後の発展のポイントになりそうだ。
Me:
GPTのAttention機構って何?
GPT:
Attention機構は、自然言語処理タスクにおいて、入力文の中から重要な部分を選択し処理するためのアルゴリズムです。GPTは、Transformerと呼ばれるモデルアーキテクチャを使用しています。Transformerは、Attention機構を利用して、入力文中の各単語の関係性を学習します。これにより、モデルは入力文全体を理解し、より質の高い出力を生成することができます。
Me:
GPTは医療の知識が弱いと聞くけど、このAttention機構の仕組みと関係ある?
GPT:
GPTは、学習データに基づいて学習されます。そのため、学習データに医療に関する知識が少ない場合、GPTは医療に関するタスクに対して劣る結果を生成する可能性があります。Attention機構は、入力文中の各単語の関係性を学習するために利用されています。しかし、Attention機構自体は、学習データに基づいて学習されるため、学習データに医療に関する知識が少ない場合、Attention機構も医療に関するタスクに対して劣る結果を生成する可能性があります。しかしながら、GPTには大量のテキストデータを学習し、自然言語処理タスクに対して高い性能を発揮する能力があり、知識を持っていない領域でも新しい知識を得る能力を持っています。そのため、医療に関するタスクをGPTに与える場合は、十分な医療に関する学習データを与えることで、GPTが医療に関するタスクに対しても高い性能を発揮することが期待できます。
Me:
ポイントは、Attention機能を医療用にチューニングするのではなく、医療データを学習データとして与えることが、GPTの医療分野への強化に繋がるんだね。
GPT:
そうですね。Attention機構は、入力文中の各単語の関係性を学習するためのアルゴリズムです。GPTは、学習データに基づいて学習されます。そのため、学習データに医療に関する知識が少ない場合、GPTは医療に関するタスクに対して劣る結果を生成する可能性があります。それに対して、十分な医療に関する学習データを与えることで、GPTが医療に関するタスクに対しても高い性能を発揮することが期待できます。そのため、Attention機能を医療用にチューニングするのではなく、医療データを学習データとして与えることが、GPTの医療分野への強化に繋がるということになります。
Me:
GPTが医学的な正確性や専門性を獲得するには、意思決定者としての専門家の監修が必要という認識だけど、仮にそれが可能になった場合、GPTは医療現場で使われるようになると思う?
GPT:
GPTは、大量のテキストデータを学習し、自然言語処理タスクに対して高い性能を発揮する能力があります。しかしながら、GPTは人間の主観や判断力を持っていません。そのため、GPTが生成する出力は必ずしも正確であるとは限りません。そのため、医療現場でGPTを使用する場合は、専門家による監修が必要です。専門家は、GPTが生成する出力が正確であるかどうかを判断し、必要に応じて修正を行うことができます。これにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療を提供することができます。そういった意味で、GPTが医療現場で使われるためには、専門家による監修が必要であり、GPTはその監修に基づいた情報の提示などに利用されることが考えられます。
Me:
ユースケースとしては何が考えられる?
GPT:
GPTは、自然言語処理タスクに対して高い性能を発揮する能力があるため、医療現場での様々なタスクに利用することが考えられます。例えば、医療文書の自動生成や翻訳、診断支援、治療プランの生成、疾患の予防に関するアドバイスの生成などが挙げられます。また、GPTは大量のテキストデータを学習することで、新しい知識を得る能力を持っているため、医学研究や新しい薬物の開発にも利用することができます。ただしながら、これらのタスクにおいてもGPTが生成する出力は必ずしも正確であるとは限らないため、専門家による監修が必要です。
Me:
専門家の監修は、GPTのユースケースの内、どのフェーズで必要になると思う?
GPT:
GPTが生成する出力が正確であることを確認するために、専門家による監修が必要になります。そのため、GPTを利用する各フェーズで専門家の監修が必要になることが考えられます。これにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療を提供することができます。
- 学習フェーズ: GPTが学習するデータについて、専門家が正確性や適切性を確認し、修正を行うことが必要です。
- 生成フェーズ: GPTが生成する出力について、専門家が正確性や適切性を確認し、修正を行うことが必要です。
- アプリケーションフェーズ: GPTが生成した出力を使用するアプリケーションについて、専門家が安全性や効果を確認し、必要に応じて修正を行うことが必要です。
Me:
各フェーズごとにその適用の難易度を教えて。
GPT:
各フェーズごとに適用の難易度は異なりますが、概ね以下のようになります。ただし、これらは一般的な話であり、実際には、専門家がそれぞれのフェーズにおいて監修するために必要なスキルや知識は、それぞれのアプリケーションやタスクによって異なります。
- 学習フェーズ: GPTが学習するデータの整理や整形は、技術的なスキルが必要になりますが、専門家が正確性や適切性を確認するための作業は、通常は難しくありません。
- 生成フェーズ: GPTが生成する出力を確認し、修正するためには、専門的な知識や判断力が必要になります。このフェーズは、専門家によって適切に行われないと、生成された出力が正確でない可能性があります。
- アプリケーションフェーズ: GPTが生成した出力を使用するアプリケーションの開発やテストには、技術的なスキルが必要になりますが、専門家が安全性や効果を確認するための作業は、通常は難しくありません。
Me:
たしかに生成フェーズにおける出力のパターンは他のフェーズと比べ管理しづらそうだけど、その難易度を調節するための工夫はあったりするの?
GPT:
生成フェーズにおいて、GPTが生成する出力を確認し、修正するための難易度を調節するための工夫には以下のようなものがあります:これらの工夫により、GPTが生成する出力を確認し、修正するための難易度を調節することができます。また、専門家が確認する作業を効率化することで、より多くのGPTが生成する出力を確認することができ、正確性や適切性が高い出力を得ることができます。
- GPTが生成する出力のフォーマットを明確に定義することで、専門家が確認する作業を簡略化することができます。
- GPTの出力を確認するためのインターフェースやツールを開発することで、専門家が確認する作業を効率化することができます。
- GPTが生成する出力に対して、事前に定められたルールや基準を適用することで、専門家が確認する作業を効率化することができます。
- GPTが生成する出力を多数の専門家に確認してもらうことで、正確性や適切性を確認することができます。
- GPTが生成する出力を正確性や適切性が高いと判断される場合は、人手を減らして出力を採用することができます。
Me:
GPTが生成する出力のフォーマットを定義するにはどうすれば良いの?
GPT:
GPTが生成する出力のフォーマットを定義するには、次のような方法があります。これらの方法を組み合わせることで、より正確かつ適切なフォーマットを定義することができます。
- テンプレートを使用する: GPTによる出力には、事前に定義されたテンプレートを使用します。これにより、GPTが生成する出力のフォーマットが明確に定義され、専門家が確認する作業を簡略化することができます。
- スキーマを使用する: GPTによる出力には、事前に定義されたスキーマを使用します。これにより、GPTが生成する出力の構造が明確に定義され、専門家が確認する作業を簡略化することができます。
- 入力と出力の関係を明確にする: GPTによる出力は、入力に対応した形式で生成されるようにします。これにより、GPTが生成する出力のフォーマットが明確に定義され、専門家が確認する作業を簡略化することができます。
Me:
GPTの出力テンプレートの使用方法を教えて。
GPT:
GPTの出力テンプレートを使用するには、以下のような手順を踏むことができます。このように、GPTの出力テンプレートを使用することで、GPTが生成する出力のフォーマットを明確に定義することができ、専門家が確認する作業を簡略化することができます。また、テンプレートを学習させることで、GPTが生成する出力が予め定義したフォーマットに沿っていることを保証することができます。
- 出力テンプレートを作成: GPTが生成する出力のフォーマットを定義し、テンプレートを作成します。例えば、診断書のフォーマットや手術手順の書き方など。
- GPTにテンプレートを学習させる: GPTに、作成したテンプレートを学習させます。
- GPTに入力を与える: GPTに、入力として必要な情報を与えます。
- GPTが生成する出力を確認: GPTが生成した出力が、事前に定義したテンプレートに沿っていることを確認します。
- 修正を行う: GPTが生成した出力が、事前に定義したテンプレートに沿っていない場合は、修正を行います。
Me:
GPTのテンプレートとスキーマの違いを教えて。また、プリセットと何が違うのかも教えて。
GPT:
GPTのテンプレートとスキーマは、出力フォーマットを定義するための方法であり、それぞれ異なる特徴があります。つまり、テンプレートは文章のフォーマットを定義するのに、スキーマはデータ構造を定義するのに、使用します。プリセットは、テンプレートやスキーマのような事前に定義したパターンやデータ構造を使用することができます。ただし、プリセットは、具体的には何を指すかは定義が異なります。
- テンプレート: GPTの出力に対して、事前に定義された文章のパターンを使用します。例えば、診断書のフォーマットや手術手順の書き方など。テンプレートは、GPTが生成する文章のフォーマットを明確に定義することができ、専門家が確認する作業を簡略化することができます。
- スキーマ: GPTの出力に対して、事前に定義されたデータ構造を使用します。スキーマは、GPTが生成するデータの構造を明確に定義することができ、専門家が確認する作業を簡略化することができます。
- プリセット: GPTの出力に対して、事前に定義されたパターンやデータ構造を使用します。プリセットは、GPTが生成する出力を明確に定義することができ、専門家が確認する作業を簡略化することができます。
Me:
Pythonのopenaiライブラリでテンプレートやスキーマを再定義することは可能?
GPT:
はい、openaiライブラリは、新しいトレーニングデータ、テンプレートやスキーマを含むように、GPTモデルをファインチューニングすることができます。 openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングすることができ、トレーニングデータ、テンプレートやスキーマ、ファインチューニングパラメータを指定することができます。また、openaiは既にテンプレートやスキーマが組み込まれたモデルも提供しており、それらを直接使用することができます。
Me:
`openai.Completion.create()` メソッドでテンプレートやスキーマを再定義する方法を教えて。
GPT:
openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングするには、次のようにします。このように、openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングし、テンプレートやスキーマを再定義することができます。ただし、学習データとして適切なものを選び、ファインチューニングのパラメータを調整する必要がありますので、注意が必要です。また、トレーニングデータとして使用するテンプレートやスキーマによっては、モデルの性能が改善しないこともあるため、適切なものを選ぶことが重要です。また、ファインチューニングを行うためには、足りないデータや時間、計算リソースが必要です。
- トレーニングデータを用意: GPTに学習させるためのデータを用意します。このデータは、テンプレートやスキーマを含んでいる必要があります。
- openai.Completion.create()メソッドを呼び出す: openai.Completion.create()メソッドを呼び出し、トレーニングデータ、ファインチューニングパラメータを指定します。
- ファインチューニングを実行: 指定したパラメータに基づいて、GPTモデルをファインチューニングします。
Me:
当該メソッド用のファインチューニングパラメータは `prompt` を使うんだよね?
GPT:
はい、openai.Completion.create()メソッドでは、promptパラメータを使用して、GPTモデルに対して、生成したい文章のフォーマットやデータ構造を指定することができます。このpromptによって、GPTは指定されたフォーマットやデータ構造に従って文章を生成するように学習します。このpromptには、テンプレートやスキーマを含む文章を指定することで、GPTに学習させることができます。
年明けたけど振り返っておく。
上半期は成長に停滞感があった。5 月で現職について満 3 年が経ち、コンフォートゾーンに入りすぎていた。
いつもと同じメンバーでいつも通り Rails や React を書く仕事に不満はなかったが、成長のためにもっとチャレンジングなことをしたかった。
夏頃、ちょうどチーム異動の打診がやってきたのはラッキーだった。
9 月からは新しいチームに配属されて、チームメンバーや仕事の進め方、技術スタックまで全てが変わり、新鮮な気持ちで働けた。
go が書けるようになったことや、MVC + ORM 以外のバックエンドアーキテクチャを学ぶことができたのは大きな成長につながったと思う。
APEX のランク戦でダイヤ帯に行った。春が終わる頃まではほぼ毎日欠かさずにやっていたと思う。
ダイヤ帯に行ってからは目標がなくなったので引退気味になっていたが。友達とおしゃべりしながら遊ぶ分にはまだまだ楽しい。
ポーカーはあまり上手くなれていない。戦法が凝り固まってしまっている。ターンでブラフレイズを打ったりポラライズベットができるようになればもっと強くなれると思う。座学がまだ足りていない。
人との出会いを増やすために一人で飲みにいくようになった。知らない人と話すのはいい。バーの店員と仲良くなったりした。
やっとマッチングアプリを辞めた。もう一生やらない。
https://celstore.shop-pro.jp/?pid=171912527
ダウンは似合わないけど、これはダウンとマウンテンパーカーの中間みたいな感じでよい。1LDK に売っていた。
映えスポットに行ったら服にカメムシが大量について萎えたが、俺の足はカメムシより臭かった。
RubyKaigi で行った。松坂牛を会社の金で食いまくった。
中目に住んで 2 年になり、旨い店がわかってきた。
めちゃくちゃ安いのに旨い。
2022 年短かすぎだろ。
2009年11月のいわいる事業仕分けから、もう13年も経った。「2位じゃダメなんですか?」の質問の発言で非常に曰く付きとなったアレだ。
ところが最近、13年も経ってまだなおナゼ「2位」という言葉が出てきたかが理解できてない人がかなりいる事を知った。それどころか、スーパーコンピュータの京は、事業仕分け時点で世界一になることが明白だったなどという認識まで飛び出す始末である。
ただ、資料もなしにどこが変だと言っても仕方あるまい。何がどうして「2位」なのか、少し語ろうじゃないか。
初期の次世代スーパーコンピュータ (この時点では名前が付いていなかったが、以下わかりやすく京と呼ぶ) 計画 は、補助金を投入してのHPC産業育成に目を向けられていた[1]。世界一の性能を出していた海洋研究開発機構の地球シミュレータが、NECのSXシリーズをベースにしたベクトル型であり、ベクトル型のスーパーコンピュータは日本のお家芸とみなされていた。これを育成することが一つの目標。そして、立ち遅れていた当時の世界のスーパーコンピュータの潮流、スカラ型の開発に追いつくこと。これがもう一つの目標となった。結果、世界でも類を見ないベクトル型とスカラ型のハイブリットなどという中途半端な方式になる。実に日本的な玉虫色の決定と言えるだろう。しかし、補助金の注ぎ込みが不足し、事業者持ち出しの負担が大きくなってしまった。結果、事業費負担が高額になることを嫌い、NECと日立の撤退する[2]。これにより、世界の潮流通りのスカラ型とならざるをえなくなった。
CPUはというと、世界のスーパーコンピュータの潮流では当時から既に汎用のx86アーキテクチャのCPUが既に多くなってきていた中、富士通はSPARC64VIIIfxを採用した。よく国産CPUと表現されているが、SPARCの名で分かる通り、当然命令セットは米国Sun Microsystems (現 Oracle) のセカンドソースであり、端から端まで国産というわけではない。更に、業務用UNIXをささえるマシンとして一世を風靡したSPARCではあるが、当時ですらもう下火となっていた。京の事業費の約半分、実に600億円が、この専用CPUに注ぎ込まれることになった。なぜその選択をしたのか。富士通のサイトには省電力と安定性が理由として書かれている[3]。しかし、その省電力という目標も、後述するように微妙な結果となってしまった。また、ソフトウェアの使いまわしも微妙となった。
計画は2005年に始まる。世界でも類を見ないベクトル型とスカラ型のハイブリットという構成もあり、概念設計にはしっかり時間を費やした。2007年9月には性能目標は10P FLOPSと示した[4]。稼働開始は2010年、2012年に完成という工程も同時に示されている。直前の2007年6月のTOP500を見ると[5]、1位のIBM BlueGene/Lが370TFLOPS。5年後に30倍という性能を目指したことになる。当時の発表としては、世界一が取れるような計画だったが、しかし日進月歩の分野で5年は結果的に長かった。
さて、前述のように、ベクトル陣営は2009年5月に撤退を決めた。10P FLOPSの性能と決定した時には、ベクトル側も居たのに、そこがぽっかり空いた状態。10P FLOPSのあてはいつついたのだろうか? 2009年7月の報告書[6]では、スカラ単体で10P FLOPSを達成できること、ベクトル部は存在していても接続まわりの性能が不足していて問題があったことが表明されている。結果的に、なくなってよかったというトホホな内容だ。さて、同報告書では、稼働開始前の2011年6月に、ベンチマークだけでも10P FLOPSを達成してTOP500の1位を目指すと書いてある。どうしてこうなったのだろうか。
遡ること半年の2009年2月3日、米国国家核安全保障局(NNSA)はIBMと新しいスーパーコンピュータ Sequoiaを展開すると発表した[7]。性能は20P FLOPS、京の予定性能の実に2倍を達成するという発表だ。しかも、提供開始は2011年~2012年。京の1年も前になる可能性があるという。
そう、双方が計画通りなら、京は2012年、提供を開始する時には既に2位になっているという話題が出ていたのだ。なるほど、あせって2011年にベンチマークだけでも「トップを取った」という実績を残したいわけである。
さて、その後のSequoiaはというと?
ある意味計画通りだろう、2012年に提供が開始され、2012年6月のTOP500[8]では予定通り20P FLOPSを叩き出し、1位になる。しかし、2012年11月のTOP500[9]では、Crayとオークリッジ国立研究所が作ったTitanが叩き出した27P FLOPSという数字ににあっさりと抜き去られ、2位になる。まるで幽遊白書のラストのような展開だ。しかも、SequoiaはIBMのPower系アーキテクチャで構築されたA2プロセッサだったのに対して、TitanはAMD OpteronとNVIDIA K20Xの組み合わせ。汎用性でも差を開けられている。これはお手上げというものだろう。
さて、話は京に戻す。京が有名になったのは2009年11月13日の行政刷新会議、いわいる事業仕分けである(ここは参考文献は要るまい)。このときまで、そんな計画があることを知らなかった人の方が多かったのではないだろうか。どういうニュアンスで言ったかわからない、まるで日本を貶めているかのように聞こえる「2位じゃダメなんですか?」という言葉が非常にインパクトを与えたことだろう。
さて、じゃぁ何が2位なのか。だ。前述の通り、この時点ではIBMのSequoiaに追い抜かされることが見えていた。TitanはGPUの調達など細かい話が決まってきたのは2010年なので、この時点ではほとんど影がなかったはず。ということで、3位じゃなくて2位としたのは、Sequoiaを意識してのことだろう。つまり、「2位じゃダメなんですか?」というのは、1位を諦めて2位の性能で我慢するべきということではなく、客観的に見れば「2位になるのが見えているのだけど、何で1位と言ってるの?」という話になってくるのが見て取れる。蓮舫氏がそこを意識してたか知らんけど。
共同事業者が撤退し、一応強気に「大丈夫」と言ってはいるが、本当に達成できるかは周りからは疑問符が付くグダグダなプロジェクト状況、ほぼ専用設計で量産時にどういう問題が出るかわからないCPU、ソフトウェアも新規制作。税金の投入は中途半端で、産業を育成したいのか企業負担を増やしたいのかよくわからない(だから撤退する事業者が出る)。そもそもここで出来たスーパーコンピュータ、CPU抜きにしても売れるのか分からない。そりゃ、金田康正教授でなくても、京にはため息が出るというものだ。
さて、京は何を達成したのだろうか? 京は完成前ではあるもののベンチマークを実施し、見事11P FLOPSを叩き出し、2011年6月[10]と2011年11月[11]のTOP500でトップに躍り出る。この分野に日本ありと示した…かどうかはわからないが、一つの実績として言えるのは間違いない。いや、経緯のグダグダ感からして、見事なプロジェクト進行だったと称賛できる。しかし、前述の通り供用を開始した2012年9月[12]にはTOP500ではSequoiaに追い越されており、直後のTOP500ではTitanにも追い越されて3位となっていた。1位は、ベンチマークだけの存在だったと言える。
では目標の産業育成としてはどうだっただろうか。京をベースにしたスーパーコンピュータ PRIMEHPC FX10[13]やFX100は、東大[14]、名大[15]、キヤノン[16]、九大[17]、信大[18]、JAXA[19]、核融合科学研究所[20]、気象庁気象研究所と、調べるだけでも国内実績は多くある。国外実績は、台湾中央気象局[21]、シンガポールナショナルスパコンセンター、豪州 NCI、英国 HPC Walesと、それなりにある。ただどうだろう。産業としてうまくいったのだろうか。有価証券報告書を見ても、その他のセグメントに入ってしまっているため状況がつかめない[22]。謎ではある。とはいえもし、産業としてそれなりに育ったのならば、有価証券報告書で報告する事業セグメントとして独立したものを与えられてしかるべきだったのではなかろうか。少なくとも1000億も出したのだ。そのくらいではあってほしかった。更に言うなれば、特に競争の激しい国外市場をうまく取り込めたかというと、産業育成という視点では頑張ったとは思うものの心もとない結果だったように、少なくとも私には見える。
消費電力の面はどうだろうか。上述の通り、SPARCを使う理由には省電力が上げられていた。これをライバルのSequoia、Titanと比較してみよう。2012年11月のTOP500[9]で見ると、京は12.6MW消費するとある。Sequoiaは7.8MW、Titanは8.2MWだ。実はこの時の報告のあるスーパーコンピュータの中で、最大の電力消費量を誇っている。高いほうがいいのではなく、消費電力は低いほうがいいので、これはかなり問題がある。
費用面はどうだろうか。これもライバルと比較してみよう。京は日本円にして1120億円かかっている。対してSequoiaは2億5000万ドル[23]、Titanは9700万米ドル[24]だ。2012年11月で見るとドル円相場は82円なので、Sequoiaは約205億円、Titanは80億円となるだろうか。京のプロセッサ開発費を除いたとしても、数字が違いすぎるのだ。
纏めてみよう。京は、一時期でベンチマーク上だとしても、TOP500で1位を取った。これは「夢を与え」(平尾公彦氏)た結果だったろう。しかし、それは砂上の楼閣でもあった。しかしそれを実現するための費用は米国の5~10倍で、性能は実は半分、消費電力は1.5倍という結果になり、産業育成も盛り上がったかどうかは判然としない。こんなところだろうか。
近年のスーパーコンピュータを含めたHPC分野はどうなっているだろうか。近年のクラウドコンピューティングの流れを当然HPC分野も受けており、主要プレイヤーとしてAWSの名前が挙がっている[25]。またレポートでは挙がっていないものの、Google Cloudも猛追しており、円周率の計算では1位を叩き出している[26]。必要な時に、必要な規模で構築できるクラウドコンピューティングの波は、さてHPC分野でどこまで浸透していくのだろうか。産業育成の方向が、2009年時点では確かにハードウェア開発だったろう。しかし、事業仕分けへの反発により、日本は方向性を間違ってしまったのではないか。私は、そんな気がしてならない。
[1] ttps://www8.cao.go.jp/cstp/tyousakai/hyouka/kentou/super/haihu01/siryo2-3.pdf
[2] ttp://www.nec.co.jp/press/ja/0905/1402.html
[3] ttps://www.fujitsu.com/jp/about/businesspolicy/tech/k/whatis/processor/
[4] ttp://web.archive.org/web/20130207162431/https://www.riken.jp/r-world/info/release/press/2007/070914/index.html
[5] ttps://www.top500.org/lists/top500/2007/06/
[6] ttp://www.jaist.ac.jp/cmsf/meeting/14-3.pdf
[7] ttps://www.llnl.gov/news/nnsa-awards-ibm-contract-build-next-generation-supercomputer
[8] ttps://www.top500.org/lists/top500/2012/06/
[9] ttps://www.top500.org/lists/top500/2012/11/
[10] ttps://www.top500.org/lists/top500/2011/06/
[11] ttps://www.top500.org/lists/top500/2011/11/
[12] ttps://www.riken.jp/pr/news/2012/20120927/
[13] ttps://jp.reuters.com/article/idJPJAPAN-24020620111107
[14] ttps://pr.fujitsu.com/jp/news/2011/11/14.html
[15] ttps://pr.fujitsu.com/jp/news/2013/05/15.html
[16] ttps://pr.fujitsu.com/jp/news/2013/08/6.html
[17] ttps://pr.fujitsu.com/jp/news/2013/08/22.html
[18] ttps://pr.fujitsu.com/jp/news/2014/02/13.html
[19] ttps://pr.fujitsu.com/jp/news/2014/04/7.html
[20] ttps://nsrp.nifs.ac.jp/news/PS-next.html
[21] ttps://pr.fujitsu.com/jp/news/2012/06/25.html
[22] ttps://pr.fujitsu.com/jp/ir/secreports/2015/pdf/03.pdf
[23] ttps://arstechnica.com/information-technology/2012/06/with-16-petaflops-and-1-6m-cores-doe-supercomputer-is-worlds-fastest/
[24] ttps://web.archive.org/web/20120727053123/http://www.hpcwire.com/hpcwire/2011-10-11/gpus_will_morph_ornl_s_jaguar_into_20-petaflop_titan.html
[25] ttps://www.sdki.jp/reports/high-performance-computing-market/109365
[26] ttps://cloud.google.com/blog/ja/products/compute/calculating-100-trillion-digits-of-pi-on-google-cloud
最近コンピューターサイエンスがプログラマーに必要か否かみたいな話が上がっているが、そもそもコンピューターサイエンスって何だよ。どこまでの範囲をさしてんの?
ググって出てきた情報を整理しただけなので詳しい人、補足・訂正よろしく!
https://www.acm.org/binaries/content/assets/education/cs2013_web_final.pdf
CS2013はACM/IEEE-CSによるカリキュラム標準。
ACM(計算機協会)はコンピュータ分野全般の国際学会、IEEE-CSはIEEE(米国電気電子学会)の中にあるテクニカルソサエティ。
https://www.ipsj.or.jp/12kyoiku/J07/20090407/J07_Report-200902/4/J07-CS_report-20090120.pdf
J07-CSは一般社団法人情報処理学会がCC2001CSをベースにアレンジを加えたカリキュラム標準。今はCS2013を反映したJ17-CSがあるらしいけどその辺は良く分からん。
https://www.ipa.go.jp/files/000024060.pdf
J07ーCSから抜粋。CS2013と比較するとナレッジエリアがあったり無かったり。
全部が全部いらないとは思わないけど、
Webのフロントエンドエンジニアのような高レイヤしかやらない人はアルゴリズムとかの抽象的な部分だけでよくて、
オーダを知らないで書かれたコードなんかよりもっとやばいのが並列処理な
爆弾みたいなもんだけど、世の中のシステムにかなり内包されてる
こんな感じで人類はまだ並列処理の最適解を見つけていない
そのくせに「並列化したら早くなるよね!」っていう人が多いので事故ることが多い
コンピュータサイエンスを学べという人を見たこと無いけど、言いたくなる人の気持ちは分かる気がする。
コンピュータサイエンス自体めちゃくちゃ幅広い。プログラムが動く仕組み、プログラミング言語、GUIアプリケーション、アルゴリズム、ネットワークの仕組み、物理的な機器、アーキテクチャ設計、運用、人工知能、量子力学、組み込み機器。ちょっと違うのもあるかもしれないけど、とにかく色々ある。
この中であなたはどれに興味がありますか?と言って、もし答えが出るならじゃあそれをやれで済むし、答えがなさそうならとにかくコンピュータサイエンスを学んでみろ、という事になる。
今の時代、インターネットに繋げば情報が手に入るし、手を動かせば体験できるようにドキュメント化されている。大学だって講義の資料は公開している。
角川アーキテクチャみたいに次年度に大幅減したらどうなるか見てみたい
申し訳ないが、コンピュータサイエンスを履修せずにプログラマーになった人に多いのは
まずそもそも困っていることに気付けていないのでスタートラインに立ててない
スラムダンクでいうところの「下手くその 上級者への道のりは 己が下手さを知りて一歩目」というやつだ
ちなみにコンピュータサイエンスってのはオーダの話だけではなくて
例えばメモリとCPUキャッシュ、スワップなどのスピードやその使い方、コンパイラによる最適化、OSのリソース共有、状態管理の考え方なんかも含まれる
性能をもっと上げたいっていうときにオーダだけじゃなくてそういうことを網羅的に考える必要がある
ところがそもそもコンピュータサイエンスを履修してないと「性能向上が必要かどうか」を分かって無い人が多い
「これ、1秒で処理終わってるけど、本来なら1msec以内に終わるはずじゃない?」
というのに気付けてない場合が多い
1秒で処理が終わればユーザ体験は満足してしまうので気付けないんだが、ユーザが増えてくるとユーザ体験が途端に悪くなってくる
そのときに「プログラミング上のミスがあって性能が劣化している」ということに気付くか、「性能限界だからさらなるリソースが必要」と誤解するかによってビジネス上の戦略まで変わってくる
それだけではなくてクリーンアーキテクチャみたいな話も「機能が増えたんだから実装に時間がかかってバグが増えるのは当たり前」というところに落とし込んでしまうか
「もっとアーキテクチャを整理して考えれば機能追加も楽になるはず」という考えに至るか、というところで大きな差がある
この辺りでビジネス上の戦略まで変わってしまうからGoogleやMicrosoftなんかは積極的にコンピュータサイエンスを履修してる人を雇う
もう少し簡単に言うと、コンピュータサイエンスを履修してないプログラマーに多いのが
「今は動いているけれど触るとどうなるかわからない」
というソフトウェアを作りがちなところだと思う
レビューしてても
というコメントをするが、大抵
「動いているのでいいでしょwww」
みたいな感じで返してくるからどうしようもない
心が強くないと続かない
プロジェクトっていうのは色んな環境、色んな事情、色んな会社のステージ、色んなジャンル、色んな開発手法、色んな組織や文化
があって、それら全部に適応できるスーパーエンジニアなんて地頭がガチでいい一部の人間でしかない
だから当然だけど何年もやってきたプロパーに比べてパートナーの適応力が劣るのは当たり前なんだ
どこの組織でもそうだった
正社員の方が上手くプロジェクトをこなし、フリーランスは怒られないように薄ら笑いをするのだ
でも話してみると明らかにフリーランスの方がスキルや経験値は上なんだ
おそらく2,3年やればまた違うんだろう
という上記のようなことをフリーランスは知ってるけど各会社の人は知らない
上手く扱ってるところは2割程度
プロジェクト数が沢山あるところや受託開発ではあまりこれが起きない、自社開発ではかなり起きる
ベンチャーでは起きづらい、大企業ほど起きる(特に大企業は優秀な正社員が沢山いるから)
とは言えこれは仕方がない、おそらく転職経験が1,2回であろう正社員は、そういう「他社と自社のプロジェクトの差」について驚くほど疎い
自分らの設計や開発手法が正解に最も近く、他社もそうやっているはずで、それを知らない人は無知で不勉強だとマジで信じている
だから設計や開発手法の説明もさらっとしか行われない、常識だと思ってるから
(実際はどこに行っても同じプロジェクトは一つとしてない)
経験値の高いフリーランスは何でも経験しているとマジで信じている
(実際はアーキテクチャやコア部分、コンプラに関わる部分、管理的業務などは疎かったりする)
周りのフリーランスは偉いのか疲れてるのか分からないが反抗的な人は少ない
「他のプロジェクトではこうだ」みたいなことは極力言わず大体素直に従っている
死んだ魚のようなやつが居たら大体外注だ
活きがいいのは大体プロパーの人だ
フリーランスは心が強くなきゃならない
あるいは長く居座れば良いのかもしれないが、それってフリーで居る意味がないよね
ちなみにそういう外注敵視してたり、要求レベルが無駄に高くてすぐクビにするようなところほど募集を多くかけている
要は地雷なんだけど、マッチングアプリでいつまでも残ってるやつみたいな
運が悪いと残り物が全部地雷だったりする
やはり心を強くする以外にないのだ
そして最終的に薄ら笑いを浮かべる
ここ1年で初めてはてなブックマーク日毎の総合人気エントリ入りしたドメインからのホットエントリ、ブクマ数順トップ30
ブクマ数 | タイトル | ドメイン |
---|---|---|
1558 | 25歳で年商40億円の株式会社アルゴリズム、事業実体はサイト貸しを活用したアフィリエイター集団か。過激化するSEOハックの実態に迫った。 | suan.tokyo |
1252 | 収納の基本講座|DAIKEN-大建工業 | www.daiken.jp |
1234 | 人事制度ハンドブック - kaneda blog | kaneda3.com |
1086 | クマが上から飛んでくる衝撃動画「登山中に熊に襲われた」 現場の真相を取材 | PEAKS, 関東 | funq.jp |
1045 | バッチ処理 プラクティス | www.yamarkz.com |
987 | 月5ドルの自作サービスで最初の500人を集めるまでにやったこと | blog.craftz.dog |
874 | 映画『Winny』|公式サイト | winny-movie.com |
855 | 三井住友カードからの脱出先の検討メモ - 職業プログラマの休日出勤 | tmotooka.hatenablog.jp |
853 | [PDF] 雑踏警備の手引き | www.police.pref.hyogo.lg.jp |
768 | 懸垂のできる公園リスト(場所別) | kensui-to-watashi.com |
709 | 人気スパイスカレー店「魯珈」のレシピを大公開! 「豚スペアリブの薬膳赤カレー」の作り方 | 360LiFE [サンロクマル] | 360life.shinyusha.co.jp |
690 | 三浦瑠麗氏、山上容疑者母の高額献金に「競馬でスったって同じじゃないですか」 | asagei.biz |
679 | プロトコルスタックを写経してネットワークを完全に理解したかった日記 | sititou70.github.io |
600 | 乗換案内1872 - ジョルダン | www.jorudan.co.jp |
582 | Twitterを4ヶ月凍結されて、弁護士に依頼して凍結解除してもらった話 - gecko655のブログ | gecko655.hatenablog.com |
575 | 画像生成AIによって生成されたイラストの見分け方 | blog.oimo.io |
502 | LINE Seed | seed.line.me |
472 | エキサイト翻訳終了のお知らせ | エキサイト翻訳・オフィシャルブログ | blog.excite.co.jp |
468 | NURO光ネットワークに関する調査結果のご報告および今後の取り組みについて 2022年10月12日 ソニーネットワークコミュニケーションズ株式会社 | www.nuro.jp |
457 | 32歳、新しい技術を習得する余裕がなく昔取った杵柄でいつまで食えるか不安です - star__hoshi's diary | starhoshi.hatenablog.com |
446 | 「設計」で大事なのはこれだった!半年間で40本レビューして分かった 5つのポイント - Link and Motivation Developers' Blog | link-and-motivation.hatenablog.com |
438 | ナナイ・ミゲルからシャア・アズナブルへの質問と確認と安堵と絶望 <映画『機動戦士ガンダム 逆襲のシャア』でのすれちがい宇宙> | highlandview.blog.fc2.com |
434 | 機動戦士ガンダム 水星の魔女 公式サイト | g-witch.net |
434 | リモートワークによる孤立から結束へと向かうチームビルディング | research.sakura.ad.jp |
403 | 『ソフトウェアアーキテクチャ・ハードパーツ』 - Don't Repeat Yourself | blog-dry.com |
395 | 美しい姉弟 - 堤翔 / 美しい姉弟 | くらげバンチ | kuragebunch.com |
382 | 「副業300万円問題」大幅修正へ 通常の70倍の反対意見が殺到:朝日新聞デジタル | digital.asahi.com |
381 | Envader | インフラエンジニアを目指すための学習サイト | envader.plus |
366 | 井伊商店さんの麦味噌が味噌と名乗れない問題についてちょっと解説 - 醤油手帖 | shouyutechou.hatenablog.com |
364 | 推し推しうるせぇな、ちょっと黙っとけよ - 夢中で君に恋してる | muchudekoishiteru.hatenablog.com |
詐欺も何も、普通にシーリー系列のプレミアムEV(Zeekr)のEセグに載せて出してるよ。Ni200Exな。
https://www.marklines.com/ja/report_all/rep2344_202208 (マークラインズは読めなかったら登録しといたほうがいいよ)
主力のNi150Exと違いインバーターも統合されてて、より先進的なパッケージになってる。たぶん今後はこの新アーキテクチャを下位ラインナップに降ろしてくるんだろう。
「厚みで強度コントロールするしかないアルミキャスティングと違って、部品ごとの要求強度をコントロールできるハイテン溶接の方が薄く軽く作れるし、結果的に安い」というなら、そもそもギガプレスがトヨタにとって技術的脅威になるわけがなく、相手にする必要すらない。でもトヨタ寺師研は、EVのコスト競争力向上のために研究しなければならない筆頭テーマに据え、EV専用プラットフォームへの採用可能性を検討している。お前にはわからないメリットを、EV分野での巻き返しを求められている特命チームは理解している、ということ。
「海外がキャスティングに走ったのは、鉄鋼メーカーにも自動車メーカにも冷間プレス技術が無くて、熱間プレス既にやってたから、似たようなキャスティングに走っただけ」の「ただ…だけ」って何が言いたいのかわからんけど、「キャスティングは、冷間プレスという日本得意の技術があまり盛んでない海外勢が苦し紛れで手を出した、劣ったテクノロジーなのだ」という解釈なのかなあ。でもトヨタがホットスタンプを増やしてるように、もう冷間の優位性ってだんだんなくなってきてる。そもそもTNGAだってホットスタンプ増やすことを売りにしてたわけでね。https://www.goo-net.com/magazine/contents/purchase/38831/
だったらそもそもハイテン鋼を使って冷間と熱間を使い分けて複数のパーツを作って後で溶接でガチャンコするなんて手間かけずに、軽量なアルミ系合金を使って、厚みだけで強度を自由にコントロールできて、プレス1発で整形できて、後の溶接工程がいらないやり方のほうが、量産方式として優れてるよね〜、これこそ破壊的イノベーションだよね〜、という風に普通はなると思うんだけど。
「高度で複雑で日本が得意な分野の生産方式のほうが良いに決まってる」という観念に囚われたままだと、「冷間プレスできないからキャスティングしてるんや」みたいな変な解釈になっちゃうのかなあ(もちろん海外勢も冷間プレスはやってます。メリットが薄れてるから減ってるけど)。量産製造技術においては、シンプルでスケールする生産方式のほうが強いのになあ。
ロシアが大手企業を接収した場合には販売されるPCのOSがTRON-OSに置き換わるというシナリオが考えられます
TRON-OSはかつてアメリカに嫌われていてB-TRONなどは失敗に終わっているが、TRON-OSの中で唯一生き残ったI-TRONだけでもWindowsに勝っていて先進的であり、使用料は基本的に無料であるため、ロシアが大手企業を接収してWindowsなどが開発されなくなった場合、TRON-OS入りのPCが世界中に販売されることが起こりうると考えられます
そうなると、TRON-OSプロジェクトチームが動き出し、日本を中心に西側諸国などでTRON-OSが共同で開発されるということになりそうです
TRON-OSは異なるアーキテクチャで同一のコードを実行できると言われているので、IntelやAMDのCPUが無くなってもTRON-OSならTRONチップや別のCPUで開発を続けられるそうです
PCのOSがTRON-OSに置き換わるとWindowsよりもセキュリティーと安定性が向上し、非常に軽量になると考えられます
ロシアが大手企業を接収するなどしてTRON-OS入りのPCが世界中に販売されれば、TRON-OSのシェアは90%以上(残りの10%以下はサーバーやスパコンなどでLinux、一部のシステムでUnixなど)まで増えるということになりそうです
ロシアが大手企業を接収するなどしてTRON-OS入りのPCが世界中に販売されれば、QEMU、LibreOffice、Inkscapeなどのオープンソースソフトウェアは開発は続行し、TRON-OS向けにコンパイルしたものが公開され、TRON-OS向けの商用ソフトウェアも出てくると考えられます
前編からのの続きです。
https://anond.hatelabo.jp/20221022145133
舞鶴の「舞鶴クリエイティブアソシエーション(MCA)」というNPO法人が 「艦隊これくしょん -艦これ-」のIPを勝手に使って商売していて、KADOKAWAから警告書が届いたら市長候補の森本さんが怒ったというお話です。
MCAと言えば、地元の事業者に声をかけて「砲雷撃戦!よーい!」への協賛を集めていたというネタもありました。
もともとMCAと「砲雷撃戦!よーい!」の関係が既にアウトなので付加的な話ではあるのですが、二次創作の同人イベントに企業の協賛を集めるという「赤信号みんなで渡れば怖くない」的な行動力は目を見張るものがありますね。
協賛した銀行や信金に関しては法務部仕事しろと言いたくなります。
もしKADOKAWAが訴訟を起こしていたら影響範囲は図り知れず、商店街が焼け野原になっていたことは想像に難くありません。
移動、宿泊、飲食、お土産と、艦これのIPを勝手に使って、8年の間に何億くらい舞鶴市内の経済を動かしたんでしょうね(参加者のべ1万人の市内での平均消費額が1万円なら、それだけで1億円です)。
「砲雷撃戦!よーい!」が廃止になった途端に舞鶴市と艦これのコラボが始まったのは偶然ではないのだろうなと思います(廃止が2021年9月、コラボ発表が同年12月)。
舞鶴市からのオファーだったそうなので、これは想像ですが、商店街を守るため訴訟を思いとどまらせる代わりに公式コラボを提案するというバーターだったのではないかなと。
せめてそのくらいはないと、何年にも渡ってフリーライドを続けてきたMCAに対してKADOKAWAは優し過ぎませんかね。
展開している場所が赤れんがパークなのも、MCAの関わる同人イベントへの牽制にも見えてきます(もちろん海軍ゆかりの場所というのが表向きの理由でしょうが)。
当のMCAは「舞鎮駆逐隊」で一発逆転を狙い、森本さんは市役所をKADOKAWAとズブズブの関係だとか、市がアニメと提携するなんて論外だとか仰っているのですが、皮肉なものだなあと思います。
その森本さんですが、動画では散々「著作権侵害はだめですよ」と仰っていたのですが、実は自身で著作権侵害を行っていました。
2014年7月の「砲雷撃戦!よーい!」で森本さんは屋台を出しており、「提督」というワードを名称に含めた艦これと直接関係のないアイテムを販売していました。
そこで使われたポップに、艦これの二次創作イラストが使われていたんですね。
屋台の写真が残っているのですが、ご本人は認めていません(ノーコメントを貫いていました)。
ただし、MCAと言いますか地元事業者が「砲雷撃戦!よーい!」の運営で使っていたイラストを勝手に転用したという話がちらほらあるため、そのイラストを描いた人が当時どのような意図で描かれたのかは分かりません。
また、同じ出処のイラストが森本さんの会社の通販サイトに使われていたという事案がありました。
そのページに登録されていた製品は上記の「提督」グッズ等で、値段までバッチリ入ったものでしたが、森本さんは「打ち合わせ用の仮デザインでネット販売には使用していません」と仰っていました。
普通に考えて、イベントで販売したアイテムの販売ページを5製品分も作って売っていないとは考えにくいわけですが、残念ながら外部からは確認できません。
イラストの詳細については、「おそらくネット上でアップされている絵師さんのご自由にお使いください的なイラストを使わせてもらった」と嘘をついています。
動画へのコメントでMCA提供ですよと教えたのですが、頑なにノーコメントを貫き訂正もしてもらえませんでした。
許諾に関しては「艦これ運営に許諾は取ってないです(8年前当時には許諾が必要な認識が無かった)絵師さんを差し置いてこちらが独自に許諾を得ることはそれはそれで別の問題になります」とツイートしており、ご自身でアウト判定であることを証言しています。
最高裁まで争った「キャンディキャンディ事件」で、二次著作物(いわゆる二次創作物)の著作権は原著者と二次著作作者の双方に権利が発生し、利用の際には両方の承諾が必要という判決が出ています。
森本さんは少なくとも原著者の承諾は得ていないわけですから、著作権侵害にあたります。
森本さんがツイートしたような「8年前の社内のコンポアライアンス的には問題は無いです」では済まないんですよね。
今になって法的に問題化できるかと言えば難しいような気もしますが、動画で「著作権侵害はだめですよ」と繰り返し仰っていて自分のことは「8年前だからセーフ」とは…。
舞鶴での著作権侵害と言えば、「海軍御用達おみやげ館」も外せません。
これはMCAが運営している店舗なのですが、日常的に艦これの同人誌や同人グッズが販売されていたようです。
「舞鎮駆逐隊」の運営が「海軍御用達おみやげ館」にグッズ販売を委託する旨のツイートをしていたなど、ここでも親密さが伺えます。
同人誌や同人グッズの店売りは個人と法人の線引きが難しくなるものではありますが、同人ショップ以外の店売りは相当高リスクだろうと思います。
同人アイテムは販路や販売機会が限られているからこそ営利目的ではないという建前が成り立っている部分があります。
常設の店舗で売っており、売り切れたら補充します、次の製品も企画していますという話になれば営利目的と判定されるリスクは高くならざるを得ません。
同人ショップはどうなのかというのは難しいですが、あれだけ堂々と店舗を構えて公式とのコラボもやっていたりするので、関係者間でコンセンサスが取れているのであれば特に言うことはないかなとも思います。
大手同人ショップはコンテンツ業界にいれば知らない人はいないでしょうし、問題行為があればちゃんと問題になります。
あと、ここ2、3年は外していたようですが、「海軍御用達おみやげ館」は艦これキャラクターのスタンディング(キャラクターの大型立て看板)があったことでも有名ですね。
Googleのストリートビューに写真が残っていると少し話題になりました。
今年(2022年)7月に「はまっこ夜の市」という夏祭りのようなイベントが商店街でありました。
そこでドール系コスプレと言うのでしょうか、顔に被り物をしたコスプレの人がいまして、それが艦これのキャラクターでした。
お祭りなので多少は多目に見られても良いだろうと思うのですが、今年の話なので、「砲雷撃戦!よーい!」がなくなった後にこんなことしてていいんですかね…、とは思いました。
さて、MCAの話ばかりしてしまいましたが、森本さんの話に戻ります。
森本さんは、「砲雷撃戦!よーい!」の近くで展開された屋台村でモヒートやボルシチを販売し、人気を博した名物おやじでした。
多分人柄は良い人です。
本業は建材屋の社長で、2023年2月に行われる予定の市長選に出馬するそうです。
この話の発端は、「Aさん」のもとに角川アーキテクチャの弁護士から警告書が届いたことです。
いわく、「ルールを逸脱したイベントの開催の誘致や貴店その他における無許諾グッズの販売等本件作品の著作権や商標権等を侵害する行為や本件作品やその登場キャラクター世界観等にフリーライドした不正競争行為等及びにこれらに加担する行為を行わないように本書を持って警告します」。
ここまで読んで頂けたのであれば、この警告書が何を表しているかは明白であろうと思います。
森本さんは商店街のオリジナルキャラクターを持ち出し、「世界観等にフリーライドした不正競争行為等及びにこれらに加担する行為」のくだりをこれらのキャラクターの展開を阻害するためのSLAPP的な警告だと主張しました。
それどころか、艦これのモチーフである海軍文化は舞鶴等ゆかりのある地元のものであり、艦これはそれにフリーライドし、文化盗用をしているのだと持論を展開したのです。
しかし、そもそも現在の商店街のオリジナルキャラクターの源流にある「軍艦通り擬人化キャラクター」群は、艦これをヒントにして生み出されたとMCAが公表しています。
他のもっとヤバそうな部分は無視して、自分たちのキャラクターの元ネタに対して文化盗用とか言うんですか、そうですか…。
後編に続きます。