はてなキーワード: 演算とは
絵は思想なのです、とはじめにお断りしておきます。というのは…
絵は脳が捉えた様子を描くんです。
(それ以外を描くことは、でたらめです。)
世界には、どんなに目を凝らしても輪郭線なんか物理的には存在しないのに、です。
色相が異なるから、陰影がシャープに変化するから、みんなそうしているから、あるいは、なんとなく?
この自問自答こそ、1行目で「絵は思想」と申し上げたものです。
そんな感じで3週間ほど経った頃、もう一度スレを立ててください。
といっても、もう一度あなたとここでお会いできる確率は高くないので、続きを書きます。
*
脳の性格、特性、傾向、なんだかそのようなものが記憶されてくると、今度は、画面上のどこに輪郭線を配置すれば脳が物体を認識するようになるのかという、逆演算をするのが課題となります。
といって、ここまでの間に思わず鉛筆を手にとってしまっていた子は才能があります。
逆に描かなくていいなら鉛筆なんかとらないよって子は、永久に描き始めません。
あなたは、初めから絵の才能がないとおっしゃっているので、ネタバレしました。
結局は物理的に絵に取り組んでいた時間の総和はだいぶモノを言います。
*
ってみんな言うんですが、左手がハードル高いなら星のカービィを描いてください。
*
描いて、見て、見て、描いて、見て。
絵の練習はこの繰り返しです。
なぜそのように見えるのか?を自問自答するのが絵の練習の重要な要素です。
練習せよ、納品せよと言われて描くような、主体性のない作画は、どういうわけか退屈で拷問のように辛いのです。
*
最終目標は脳の認識を逆演算することですから、バグ技、ハッキング、そういうような概念に近い試みと私は思います。
とりとめもなく色々と書きましたが、結局は「やってみること」が非常に大切です。
軽い気持ちでやってみましょう。
グッドラック!
https://president.jp/articles/-/87827
このままでは国民皆保険が壊れていく…金子勝「マイナ保険証は政治献金企業が儲かる究極の寄生システム」
敬称略です。
政治献金と技術的に遅れた日本の情報産業のための救済事業との結びつきは非常に強い。
ほぼ10年間でマイナンバー関連事業を少なくとも3000億円近く発注していると見られるが、大企業8社が共同受注などで独占的に契約している。
そんなことはありません。むしろ、大手IT企業はこの手の自治体公共事業が薄利すぎて足を洗いたがっているというのがほぼほぼ現在の状況です。最近では大手の撤退が激しく、元々大手が担っていた部分を別の中堅SIerが無理して受注したものの、ノウハウもなく薄利過ぎて対応出来ず納期通りに納品できない案件が続発しています。そこで、入札参加条件が上げられた結果、入札が予定価格を上回り、随意契約になると言うケースが多発しています。
見る人が見れば、NTT系が基本を抑えつつ、周辺の企業が参画しているというのがわかると思います。大手5社のコンソーシアムで、NTTコムがメイン、NTTデータ、NEC、日立、富士通の合わせて5社で共同受注しています。そして、他に手を上げた企業はありません。
NEC・日立・富士通は関連公共システム(住基や戸籍、税務システムなど)が関わりそれらとのつなぎ込みが必要になるからですね。
他に手を上げた企業がない上、入札では予定価格を上回ってしまった結果、随意契約と言うケースです。報道によれば、いずれも随意契約にするにあたって、調整の結果入札価格よりも低い価格で受注させているようです。
他、凸版とDNPは物理的なカードの発行業務をやっており、合わせて800億円ぐらいの受注額です。そしてマイナカードは1億枚発行していますので、1枚辺り800円。カードは物理的に1枚300円はしますし、送付事務に使う簡易書留は350円しますので。単純に残りの取り分は150円です。全然高くありませんね。ここで事務手続きなどをやる事になります。数が多いので最大限コストは低く抑えていると思いますし、全てが郵送交付ではないとか細かい話はあるでしょうけれども。
JECCはリース会社です。国の予算の関係でいったんファイナンスを引き受る。大手IT企業がごそっと出資している特殊な会社です。金額はでかいですがこの会社が入るのは主に行政の硬直性の問題です。
何故か突然旧ソ連・ロシア方面の用語が出てきて面食らった人もいると思いますが、オリガルヒとは、官製の新興財閥だそうで、その方面の人たちからは社会主義国家ソビエト連邦が崩壊したどさくさに紛れて、民間にいくときに出来た悪しき存在という事で、よく批判に出てくる用語です。
さて、彼らはオリガルヒなのでしょうか?
そんなわけないんですね。
一般的にIT企業が求める水準の利益率とは30%と言われる中、政府系の仕事は利益率が1割を切る事があたりまえです。エンジニア不足の中でやりたくない仕事です。
NTT系が1300億円程度の受注をし、物理的発行やリース会社を合わせて8割以上で、残りとは大きな差があります。ここで金子らなぜNEC日立富士通を入れたのか。それは5社が献金していると言いたいが為に3社を水増しした感じがしますね。
まずは、利便性について検討しましょう。金子はこの一文のみ、内容も根拠も全く触れず、まるで自明のような扱いですが事実とは異なります。
政府は、マイナンバーカードの調査を定期的に行っており、最新の結果はこちらです。
少なくとも、利便性が「まったくない」と言う事は「まったくない」ことがわかります。
やたら多くの紐付けをするために、なくしたり盗まれたりすると、すべての個人情報が漏れてしまう。
ここでは逆に、全ての情報が漏れるにはどのような条件が揃う必要があるかを並べてみると
と言う事が必要。
と言う事が必要です。
さてこれを「セキュリティがまったくない」と表現するのが適切でしょうか?
現状、これよりも固いセキュリティを強いているシステムは本当にわずかです。
暗証番号のない顔認証マイナ保険証、スマホのマイナ保険証(これもマイナ保険証をスマホに接触させないと使えない無意味なもの)など、数種類のカードが発行される極めて非効率なもの
これは明確に誤りです。何故ならば、1人に発行されるマイナカードは1枚しかないからです。受け取る側のシステムも一つ。
「マイナ保険証をスマホに接触させないと使えない無意味なもの」も誤りです。最初の1回だけ行えばよく、使う時にマイナカードは必要ありません。
初回のそれはマイナカードで認証する為に必要というだけの話です。
さて、金子はこの状況を「数種類のカードが発行される極めて非効率なもの」とする一方で、「多数数の紐付けを止め、一つひとつ独自のOS(オペレーティング・システム)で」を提言しているのですが、整合性がありません。
マイナンバーシステムが設計されたのは今から10年前の2014年ですが、当時はまだスマートフォンに安全に電子証明書を持たせる仕組みがありませんでした。
現在できる様になったのは、日本政府や担う企業なども参画し国際標準規格を作ったからです。ISO18013-5が正式に出来たのは2021年です。最初からできた所は存在しないでしょう。そしてこの規格を世界が利用しようとしています。
これも誤りです。いまでもICカードが最も堅いセキュリティ確保の手段の一つです。
それは何故かと言うと、ICカードに入れた鍵は、現実的な手段では取り出す事も複製もできないからです。これはパスワードが漏れていても完全に中身を出せないと言う意味でもあります。
こういったことを言っている人は、大抵プラスチックカードといえば磁気カードの時代で認識が止まっている事が多いです。
ICカードは、単に定型の情報を返すものではなく、このカード自体がコンピュータです。マイナカードを利用する時にパスワードを入れますが、このパスワードはオンラインではなく、カードの中で処理されます。そして複数回数間違えると、カードの中の最も重要な鍵、電子証明書が消されアクセス出来なくなります。また、電子証明書も、このICカードが演算して帰す事で行われます。こういったことを理解しているのでしょうか。
また、顔認証が不安定という詳細が明らかにされていませんが、事実として顔認証は99%の精度があります。たまに「マスクをしていたのに顔認証が通った」という人もいますが、これはマスクをしていても顔認証ができる技術を使っているからです。他人のマイナカードで認証ができてしまったと言った話が出回っていますが、反マイナカード保険証団体の調査した結果2件だそうです。日本の保険医療の件数は数億件ありますが、そのうち2件です。
その理由をオンプレミス方式で、クラウドプラットフォームにしてないからだと説くのですが、今回出てきたトラブルはシステム的なトラブルはほんのわずかであり、ほとんどはインプットするデータの問題でした。
これは、仮にアメリや中国の巨大IT企業に依頼しても同じ事が起きていたでしょう。
金子は「マイナ保険証のひどい醜態」を自明のごとく上げていますが、その具体的な中身について一切論じていませんが、これが事実だと言う客観的な証拠がありません。全国民が使用しているシステムであると言う事を考えたとき、例外でマイナーなトラブルしか起きていませんが、これはむしろ過剰品質とさえ言える状態です。
オードリー・タン氏は、マイナンバーシステムの普及が必要不可欠だと言う事を自明のものとして扱った上で、普及を進めるにはどのようにしたら良いかと言う点で多くの提言を行っています。
また、台湾は日本以上に全ての情報が「中華民國統一證號」に統一されており、身分証の携帯が義務づけられているなど、日本より遙か前から「国民総背番号制です。前からあるが故にシステムが古い所があって運用に苦労をしているようですが、その全てを捨てて失敗だなという暴論が出ているとは聞いたことがありません。
ちょっとこれの意味が分かりません。金子は、オードリー・タン氏の名前を出した直後にこれを言っているのですが。その段落を全部抜き出すとこうです。
マイナ保険証については、通常の健康保険証廃止を止め、一からやり直して、クラウド上でスマホのアプリにする。多数の紐付けを止め、一つひとつ独自のOS(オペレーティング・システム)で丁寧にプログラムを組んでいくことが必要である。
もっと意味が分かりませんが、ここから頑張ってエスパーしてみます。
これについては全く逆です。マイナンバーシステムを通じてデータを関連づけすることによって、システム間で生の個人情報を槍と知りなくて良くなると言うメリットがあります。
共通IDがない場合、一貫した行政処理を行う時には、住所氏名生年月日といった従来からの本人の個人情報で判別するしかなくなります。
一方で統一つぃたIDで管理されている場合は、その結びつけの情報だけでデータのやりとりが出来ます。また、結びつけの情報は中央に存在するシステムが管理するのみで、接続されているそれぞれのシステムではユーザを識別する情報は別々です。中心に存在するシステムを通さないと結びつけが出来ない仕組みになっています。
また、中央のシステムで結びつけの情報を捨てるだけで容易に結びつけが出来なくすることが簡単にできます。
しかし、リアル情報を使ってしまうとそのような事はできません。
既にマイナポータルはスマホで動いていますし、一からやり直す必要はありません。
また、既に述べたようにICカードは現時点で全国民規模で動作させるセキュリティとしては最も固いものの一つです。スマホのアプリ専用にするのはセキュリティ(これは情報保護・不正アクセス回避という他に、可用性という意味も含みます)の問題があります。
現在、スマートフォンに入れることが出来る環境が揃ってきましたので、スマートフォンに入れた証明書を普段は使用して、マイナカード本体は家に置いておく、と言うスタイルが可能になります。
また、マイナカードのアプリケーションはいわゆる「クラウド」と呼ばれるシステムで多数動いており、既にクラウド上であると言えます。
既にOSレベルで独自に作成する意味はありません。それも一つ一つ別のシステムに刷るなどと言う意味はありません。
これは、交通安全のために、全ての自動車の運転方法をバラバラにするべきだ、と言っているようなものです。
また、問題になっているのはその上に乗っているサービスであるため、これによって何かが良くなることはありません。
一概には言えませんが、金子が成功例としてあげるGAFAMなどでは「Agile開発」と言われる手法が一般的になっていますが、これは「丁寧にプログラムを組んでいく」から連想されるものとは大きく異なるものです。
政府や厚生労働省が描いている医療の姿はまさにこれそのもの(もう少し具体化され、洗練されていますが)だと思いますが、何故これが「完全に間違っている」のでしょうか。
また既に実現している部分があります。
一方で実現されていない部分もあり、それを補うためにマイナンバーシステムを共通IDとして活用しようと言う事になっています。
今日、G検定を受験した。AIやディープラーニングに関するちょっと話題のやつだ。11月8日〜9日開催の2024年第6回。今回の試験から新シラバス(問題範囲)が適用で出題数が変更となる。
G検定は自宅受験可能な性質上、運営が不正行為禁止と言いながらもPCインカメラ監視や画面共有監視もなく受験者たちの間では公然とカンニングが行われていることで有名な試験だ。
IT系のAI試験だからGoogleやAIを使いこなすのも試験の一環だって?そんな屁理屈ありかよ。ありなんだよな。
SNSやnoteやqiitaの受験記を見てもそうだし、検索欄に「G検定」と入れると「カンペ/カンニング/チートシート」などが多数サジェストされることからも明らかだ。
そのため運営はカンペを一目見たり用語集をCtrl+Fで検索してすぐ解けるような一問一答的な出題を避けているという。問題文と選択肢は画像形式で出題されてコピペ不可。それくらいの抵抗はしてくる。
前回まで試験時間120分に対して出題数は公称200問程度だったが今回から160問へと変更され1問当たり時間が約30秒から45秒へと増えたのも、複雑な出題でカンニング潰しをしてやるという運営の意気込みが事前に感じられていた。
しかし運営の姿勢や自力で正々堂々と挑む他の受験者に悪いが不正受験者がいる以上は俺も乗っていくし、先端AI的な試験を受ける気概はあっても高度な自動回答環境を作れるスキルはない、そんなクズでカスの取ったスタイルを紹介する。
他の自宅受験系の資格試験にも流用できるだろう。こんな恥ずべき内容は他じゃ書けない。
ネット環境下でどこでも受験OKだが自宅がベター。広いテーブルがあるといい。カンニングしまくる以上そんな姿は人目に晒せない。会社や学校など知り合いのいる環境は論外だ。
出題内容が各人で同一であるなら仲間と結託してもいいがおそらく違うのではないか。
・PC類
頼みの綱。文字入力よりPC画面上の文字コピぺできない問題文をスマホで撮って画像入力するのがメイン。アップした画像内の文字を認識して回答できるタイプで事前に操作に慣れておく。
最近のAIならまあ対応可能だろう。性能の高い有料版に課金して安心をダメ押してもいい。世話になるのは本番2時間なのでお試し版でもいい。
俺はSoftBank系回線があれば1年タダの有料版Perplexityを普段使用しているのでこれ。
・テキスト類
シラバス(試験範囲)記載の用語が解説されたいわゆるチートシートはネットに落ちている。ブラウザで開くなりWord Excelファイルにするなり中身を検索できるようにしておく。
画像タイプでない中身が文字検索のできる試験対策の電子書籍や、テキストをそのまま書き起こしたような詳しい有料チートシートもあると心強い。
目次や索引の充実した、またはこの辺に書いてあると把握できてる読み慣れたリアル書籍もいい。
・その他
飲み物はすぐ飲めて倒してもこぼれにくいストロー付き紙パックなどがいい。
2時間の長丁場なので食べる余裕ありそうならお菓子などを用意してもいいし、アガるプレイリストを用意して音楽聴きながらやってもいい。
時計は受験画面内に常に残り時間がカウントダウンされているので不要。120分160問だから目安として残り100分時点で27問解いておきたい、80分で53問、60分で80問とメモっておくと焦った頭でもペースが掴める。
ノートPCを2台並べ、1台はブラウザで受験画面とAIを2画面表示、もう1台は簡素で一問一答的なシラバス用語のチートシートと詳細なテキスト状のチートシートを2画面表示。これはデスクトップとか1台のデカいモニターに並べてもいいだろう。
そしてスマホ2台でもAI。カメラとAIが使用できればタブレットでもいいだろう。これらを出題内容によって使い分ける。
自分の実力次第だが、用語や説明文見たら解けそうな問題はテキストからCtrl+Fで検索。AI先生に聞いた方が早そうなものはAIで。
AIに聞くのもPCタイピング入力、スマホフリック入力、出題文丸ごとをスマホで写真撮って画像認識のどれが早そうかを使い分ける。写真アップの場合は文字認識にやや時間がかかるだろう。その間に次の問題に行きそこでもAIに聞きたい場合に2台目のスマホで解いてもらう。待機時間や問題を行き来する時間は極力減らしたい。
計算問題は自力で解ける実力があってもAIに頼んで次の問題に行った方がおそらく早い。問題にはチェックマークつけて後で見返せるので1周終えてから検算してもいい。
Perplexityは画像認識での行列、サイコロ確率、期待値、畳み込み演算などを難なく正解した、はずだ。
今日の2日目受験だったが1日目受験者の感想をSNSで見ると今回からなかなか厄介に変更されているようで覚悟して挑んだ。
あまり勉強してないので過去出題や問題集との比較はできないのだが見て回ると今回は阿鼻叫喚の難易度らしい。カンニング跋扈に運営もキレたか。
問題プールの中から出題も順番もランダムに出題しているのか、同じ図表の穴埋め場所違いな問題が複数あったり、同じ用語の問われ方違いやほぼ似た感じの問題が複数あった。
勉強していればサービスだが勉強不足だと「似た問題を少し前に解いたけど自分が理解して解いたわけじゃないからまた探さなきゃ(またAIに解いてもらわなきゃ)」となり時間ロス。運営の戦略か?
試験は終了時間5分ほど残してとりあえず解き終えた。上記回答方法をスムーズにこなしてもかなりギリギリだった。
後から気付いたが問題画像を右クリック保存できるようにしたり最悪スクショした画像をブラウザAIに読ませた方が早いかもしれない。
感触はかなり良いが、AIに聞いた部分が正答できたのか全スクショして答え合わせしたわけでもないので合否不明。判明したら追記する。合否のみで得点開示されないのは残念。
AI先生の回答能力と画像認識力が上がりまくった現状、カンニングできちゃうIBT(自宅受験)はほぼお布施の価値しか無いだろう。最低限インカメラの目線監視や画面共有監視、CBT(近所の会場受験)でないと。
楕円曲線暗号(Elliptic Curve Cryptography, ECC)は、数論と代数幾何学に基づく公開鍵暗号方式である。
特に有限体上の楕円曲線の構造を利用して安全性を確保する手法として知られ、RSA暗号に比べて少ないビット数で同等の安全性を実現できる。
楕円曲線とは、一般的に次の形で表される三次方程式により定義される:
y² = x³ + ax + b
ここで、係数 a, b は、定義する体 F 上の元である。特に、上記の式が体 F 上で非退化(特異点が存在しない)であるためには、判別式がゼロでないこと、すなわち
4a³ + 27b² ≠ 0
楕円曲線上の点の集合 E(F) は、無限遠点 O を加えた集合として群構造を持ち、加法演算が定義できる。加法演算は、点の「和」を取る操作であり、次の規則に従う:
このように、楕円曲線上の点の集合はアーベル群となる。この群の構造を活用し、暗号方式が構築される。
実際の暗号応用では、有限体 Fₚ(p は素数)や拡大体 F₂ᵐ 上の楕円曲線を使用する。有限体上の楕円曲線 E(Fₚ) は有限個の点から構成され、その数は次のようにハッセの定理によって評価される:
|E(Fₚ)| = p + 1 - t,
ただし、トレース t は |t| ≤ 2√p を満たす。
ECCの代表的な応用として、楕円曲線上のディフィー・ヘルマン鍵共有(ECDH)がある。これを次のように構成する:
1. 楕円曲線 E と基点 G ∈ E(Fₚ) を公開する。
2. ユーザーAは秘密鍵 a を選び、公開鍵として P_A = aG を計算して送信する。
3. ユーザーBは秘密鍵 b を選び、公開鍵として P_B = bG を計算して送信する。
4. 双方は共通鍵として K = aP_B = bP_A = abG を計算する。
この手法の安全性は、離散対数問題、特に「楕円曲線離散対数問題(ECDLP)」に依存している。楕円曲線上の点 P と Q = nP が与えられたとき、係数 n を求めるのは計算的に難しいため、敵対者が秘密鍵を推測するのが困難である。
例えば、リーマン予想の特別な場合であるヴェイユ予想は、有限体上の楕円曲線の点の数に対する評価を与え、暗号設計の基礎となっている。
さらに、現代の暗号学では楕円曲線とモジュラー形式の関係やガロア表現といった高度な数論的構造が研究されており、これらが量子耐性を持つ新たな暗号方式の研究に貢献している。
楕円曲線暗号はこのようにして、抽象代数学、数論、代数幾何学の融合によって成り立ち、安全性と効率を両立させた暗号技術として広く利用されている。
RSA暗号は、代数的構造、特に合同算術および整数環における準同型写像を用いた公開鍵暗号である。
RSAの安全性は、環の自己同型写像の一方向性と、有限生成群の元の分解が困難であることに基づいている。
この暗号方式は整数環 Z/NZ(N = p・q)上の準同型写像の一方向性を活用する。
まず、RSAにおける鍵生成は、代数的に以下のように構築される:
互いに素な大きな素数 p および q を選び、合成数 N = p・q を作成する。
これにより、商環 Z/NZ が定義される。ここで、N はRSAにおける「モジュラス」として機能する。
この商環は、全体として単位的な環であり、RSA暗号の計算基盤となる。
オイラーのトーシェント関数 φ(N) を次のように計算する:
φ(N) = (p - 1)(q - 1)
これは環 Z/NZ の単数群 (Z/NZ)* の位数を表し、RSAの準同型構造における指数の計算に用いられる。
単数群 (Z/NZ)* は、φ(N) を位数とする巡回群であり、一般に生成元 g ∈ (Z/NZ)* を持つ。
RSAでは、この群の生成元から得られる公開指数 e は、φ(N) と互いに素な整数として選ばれる。公開指数 e はRSAの「公開鍵指数」となる。
e・d ≡ 1 (mod φ(N))
これは、e に対する逆元 d の存在を保証し、秘密指数として機能する。ここで d はユークリッド互除法により効率的に求められる。
以上により、公開鍵 (N, e) と秘密鍵 (N, d) が生成される。これらの鍵は、合同算術と商環上の準同型写像によって定義される。
RSA暗号は、モジュラー演算によるべき乗写像を使用した暗号化および復号過程である。この操作は、(Z/NZ)* 上の自己同型写像に基づいている。
任意のメッセージ M ∈ Z/NZ に対し、公開鍵 (N, e) を用いて次の準同型写像を作用させる:
C = σ(M) = M^e (mod N)
ここで σ: M → M^e は (Z/NZ)* の自己同型写像として作用し、得られた C は暗号文となる。
この写像はモジュラ指数写像として同型写像であるが、一方向的であるため暗号化に適している。
暗号文 C を受け取った受信者は、秘密指数 d を用いて復号を行う。具体的には次のように計算する:
M = C^d (mod N) = (M^e)^d (mod N) = M^(e・d) (mod N)
ここで e・d ≡ 1 (mod φ(N)) であるため、e・d = kφ(N) + 1(整数 k)と表すことができ、したがって
M^(e・d) = M^(kφ(N) + 1) = (M^(φ(N)))^k・M ≡ 1^k・M ≡ M (mod N)
により、元のメッセージ M を復元することができる。ここでオイラーの定理に基づき、(M^(φ(N))) ≡ 1 (mod N) が成り立つため、この復号化が成立する。
RSA暗号は、Z/NZ の構成において N = p・q の因数分解が困難であることを仮定する。
合成数 N の素因数分解問題は、現在の計算アルゴリズムにおいて指数時間に近い計算量が必要であり、代数的には解読が非常に難しい問題であるとされる。
RSA暗号における暗号化は群の自己同型写像によって構成されるが、逆写像を求めることは一般に困難である。
これはRSAの一方向性を保証し、現実的に解読不可能な構造を形成している。
RSA暗号の解読は逆写像としてのべき乗の逆操作を計算することに相当し、これを効率的に解決する手段が存在しないことが安全性の根拠となる。
RSA暗号の構造は合同算術に基づく準同型性を有し、M → M^e (mod N) というモジュラ指数写像によりメッセージ空間上の一対一対応を実現する。
この準同型性により計算効率が保証されつつも一方向性を持ち、安全な暗号化が可能である。
以上より、RSA暗号は合同算術、準同型写像、群の生成元と逆元の難解さに基づく暗号であり計算量理論と抽象代数からその安全性が保証されている。
RSA暗号の解読可能性は準同型写像の逆像を効率的に求める方法が存在しないことに基づいており数学的にはこの逆像問題の困難性がRSA安全性を支えているといえる。
超弦理論を数学的に抽象化するために、場の理論を高次圏(∞-圏)の関手として定式化する。
𝒵: 𝐵𝑜𝑟𝑑ₙᵒʳ → 𝒞ᵒᵗⁿ
ここで、𝒞ᵒᵗⁿ は対称モノイダル (∞, n)-圏(例:鎖複体の圏、導来圏など)。
超弦理論におけるフィールドのモジュライ空間を、導来代数幾何の枠組みで記述する。
BV形式はゲージ対称性と量子化を扱うためにホモトピー代数を使用する。
Δ exp(𝑖/ℏ 𝑆) = 0
ミラー対称性はシンプレクティック幾何学と複素幾何学を関連付ける。
𝓕(𝑋) ≃ 𝐷ᵇ(𝒞𝑜ʰ(𝑌))
以上の数学的構造を用いて、超弦理論における重要な定理である「ホモロジカル・ミラー対称性の定理」を証明する。
ミラー対称なカラビ・ヤウ多様体 𝑋 と 𝑌 があるとき、𝑋 のフクヤ圏 𝓕(𝑋) は 𝑌 の連接層の有界導来圏 𝐷ᵇ(𝒞𝑜ʰ(𝑌)) と三角圏として同値である。
𝓕(𝑋) ≅ 𝐷ᵇ(𝒞𝑜ʰ(𝑌))
1. フクヤ圏の構築:
- 対象:𝑋 上のラグランジアン部分多様体 𝐿 で、適切な条件(例えば、スピン構造やマスロフ指数の消失)を満たすもの。
- 射:ラグランジアン間のフロアーコホモロジー群 𝐻𝐹*(𝐿₀, 𝐿₁)。
2. 導来圏の構築:
- 射:Ext群 𝐻𝐨𝐦*(𝒜, 𝐵) = Ext*(𝒜, 𝐵)。
- 合成:連接層の射の合成。
- ファンクターの構成:ラグランジアン部分多様体から連接層への対応を定義する関手 𝐹: 𝓕(𝑋) → 𝐷ᵇ(𝒞𝑜ʰ(𝑌)) を構築する。
- 構造の保存:この関手が 𝐴∞ 構造や三角圏の構造を保存することを示す。
- 物理的対応:𝑋 上の 𝐴-モデルと 𝑌 上の 𝐵-モデルの物理的計算が一致することを利用。
- Gromov–Witten 不変量と周期:𝑋 の種数ゼロのグロモフ–ウィッテン不変量が、𝑌 上のホロモルフィック 3-形式の周期の計算と対応する。
5. 数学的厳密性:
- シンプレクティック幾何学の結果:ラグランジアン部分多様体のフロアーコホモロジーの性質を利用。
- 代数幾何学の結果:連接層の導来圏の性質、特にセール双対性やベクトル束の完全性を利用。
結論:
以上により、フクヤ圏と導来圏の間の同値性が確立され、ホモロジカル・ミラー対称性の定理が証明される。
ラグランジアン部分多様体 𝐿₀, 𝐿₁ に対し、フロアー境界演算子 ∂ を用いてコホモロジーを定義:
∂² = 0
𝐻𝐹*(𝐿₀, 𝐿₁) = ker ∂ / im ∂
∑ₖ₌₁ⁿ ∑ᵢ₌₁ⁿ₋ₖ₊₁ (-1)ᵉ 𝑚ₙ₋ₖ₊₁(𝑎₁, …, 𝑎ᵢ₋₁, 𝑚ₖ(𝑎ᵢ, …, 𝑎ᵢ₊ₖ₋₁), 𝑎ᵢ₊ₖ, …, 𝑎ₙ) = 0
Extⁱ(𝒜, 𝐵) ⊗ Extʲ(𝐵, 𝒞) → Extⁱ⁺ʲ(𝒜, 𝒞)
経済全体を数学的構造としてモデル化する。以下の変数と関数を定義する。
賃金と物価の悪循環(賃金・物価スパイラル)を数学的に表現するため、名目賃金の上昇が物価上昇に与える影響をモデル化する。
ここで、φ と ψ はそれぞれ価格設定と賃金設定の抽象的な関数であり、θ は労働市場の交渉力や期待インフレ率などのパラメータを含む。
賃金と物価の時間的な変化を記述するため、動的システムを構築する。
dW_N/dt = f_W(W_N, P, M, D, S, A, K, L)
dP/dt = f_P(W_N, P, M, D, S, A, K, L)
dM/dt = f_M(W_N, P, M, D, S, A, K, L)
ここで、f_W、f_P、f_M はシステムの動態を決定する関数であり、経済全体の相互作用を抽象的に表現する。
賃金と物価の相互作用をフィードバックループとしてモデル化する。制御理論を用いて、システムの状態ベクトルを定義する。
ここで、F はシステムの動作を決定する非線形関数であり、u(t) は政策介入や外生ショックを表す入力ベクトルである。
dW_R/dt = d/dt (W_N/P) = (P dW_N/dt - W_N dP/dt) / P^2
実質賃金を上昇させる条件は、dW_R/dt > 0 となる。
g_W = (1/W_N) dW_N/dt, π = (1/P) dP/dt
と定義すると、実質賃金が上昇する条件は、g_W - π > 0 となる。しかし、名目賃金の上昇が物価上昇に影響を与える場合、π は g_W の関数となる。
賃金・物価スパイラルを防ぐため、システムの安定性を解析する。線形近似を用いて、システムのヤコビ行列 J を計算し、その固有値の実部が負であることを確認する。
J = ∂F/∂x|_(x=x*)
貨幣供給量 M(t) と物価水準 P(t) の関係をモデル化する。古典的な数量方程式を用いて、
M(t) · V(t) = P(t) · Y(t)
ここで、V(t) は貨幣の流通速度、Y(t) は実質GDPである。
生産性 A(t) を向上させることで、物価上昇を抑制し、実質賃金を上昇させることが可能である。生産関数を
Y(t) = A(t) · F(K(t), L(t))
と定義する。
政策当局が実施できる介入を制御入力 u(t) としてモデルに組み込む。制御理論を適用し、目的関数を最大化(または最小化)するように u(t) を最適化する。
min_(u(t)) ∫_0^∞ [W_R*(t) - W_R(t)]^2 dt
経済システムを抽象代数学の枠組みで捉える。賃金、価格、貨幣供給を要素とする環 R を定義し、これらの間の演算を環の操作としてモデル化する。
∂P/∂W_N < 1
∂P/∂A < 0
∂P/∂M ≈ 0 (過度なインフレを防ぐ)
以上の要素を数学的にモデル化し、適切な条件を満たすことで、実質賃金を上昇させることが可能となる。抽象数学を用いることで、経済システムの複雑な相互作用を体系的に分析し、効果的な解決策を導き出すことができる。
C言語の授業だったと思う
その頃のWindows98が一般家庭にはそこそこ普及してて、学校のPCはほとんど95だった
ゲームを作る学科とはいえ、まだ入学したてでプログラムなんてすらすら組める生徒はほとんどいなかった
というか、卒業までにそこそこプログラムを書けるようになる人なんて数人だった
じゃあゲーム作るなんて無理だろうって話なのだが、ここでいうゲームは、
printfとgetc?を駆使して、さらには可能であればrand(rands?)も使用し、
あらゆる演算(四則演算とさらには%)を組み合わせた高度なアルゴリズムが必要な
中には、ゲームブックを具現化したような、分岐数が二桁を超える圧倒的ボリュームのマルチエンディングアドベンチャーを作ったやつも居たし、
タイマーかなんかでゴリゴリ回してだったかターン制だったかの、インベーダーゲームを作ったやつもいた
たしか2コマぶち抜きだったか、日を分けて2~3コマだったか忘れたけど、そこまでやるやつは家では他の事するので
授業内で全部組んでた
「大」が自キャラで、剣を装備したら「犬」になる とかで 王様との挨拶をすっ飛ばして
「山」やら「森」やらある「草」フィールドを歩いてたら敵にエンカウントして、ドラクエ1みたいな戦闘できるやつ
AAで敵のグラフィック作ろうとしてあまりにも時間がかかることでスライムだけ作ったぐらいで終わった
今思えばシレンを作れば良かったと思う
先月ぐらいに、今更そういやローグってどんなゲームだ? って気になって調べたら、AAとか要らんみたいだったから
でも当時は好きなゲームで一番シンプルで作りやすそうなのは、ドラクエだった
というのを他の増田でマリオを作るという記述見て思い出しただけの増田
なんか色々考えさせられることは多いなと思って書き始めたのだけど、前述の圧倒的ボリュームのマルチエンディングアドベンチャーは
だいたい選択肢を間違えたら一歩先で💩まみれになって死ぬだったなあ って記憶がよみがえって来てどうでもよくなってしまった
実際は、穴に落ちたり、犬に嚙まれたり、色んなパターンあったし、エンディングは画面切り替えもあってそれなりに感動する仕上がりになってたから、💩まみれって評価は正しくはない
PS5 proのスペックと同じスペックのPCを用意しようとした場合、モニターとOSこみで14万円かかる。
本体のみだと11万円となりPS5 Proと値段がほぼ変わらないことになる。
(PS5 ProはASK税込みの1ドル180円で計算した場合、108,000から126,000円ぐらいと思われる)
G.SKILL F4-3200C16D-16GIS (DDR4 PC4-25600 8GB 2枚組)
4,820円
XPG PYLON 550W PYLON550B-BKCJP
6,667円
中古 Intel Core i7-12700 (2.5GHz/TB:4.8GHz) Bulk LGA1200/8C/16T/L3
42,980円
中古 _MSI PRO B660M-E DDR4 (B660 1700 mATX DDR4)
8,590円
Ultimate SU630 ASU630SS-480GQ-R
4,980円
13,262円
SPARKLE Intel Arc A750 ORC OC Edition SA750C-8GOC
31,700円
11,000円
16,090円
合計 140,089円
Intel arc a770(16GB)はfp16だと39tflops程度で、中古だと3.2万円から4万円台で売られており、新品だと4万円から5万円台程度なので、運が良ければps5 proとメモリー以外全く同じやつが手に入ってしまうことになる。
以下、そうなる根拠。
公式発表では、PS5におけるGPUの処理能力は「10.3TFLOPS」。この数字は、RTX2080に相当します。しかし「TFLOPSの数字」と「実際のグラボの性能」は、百パーセント一致するものではなく、性能ほど実パフォーマンスは高くならないのが一般的です。
CPU:CPU周波数最大4.4GHz、Zen4ベースアーキテクチャ、5nmプロセス製造。台湾TSMCが製造を担当。CPUのクロック周波数を10%増加させ、3.85GHzで動作させるモードが搭載される。
(Apple M2と同じく、TSMC製4nmプロセスSoC搭載の可能性もあるとのこと)
CPUキャッシュ:コア毎に64kBのL1キャッシュ、512kBのL2キャッシュ、8MBのL3共有キャッシュ
性能:PS5標準モデルと比べ、通常時で2倍、レイトレーシングでは2.5倍の性能アップ
プロセッサ:30基のWGP(Work Group Processors)、60基のCU演算コア
ROP(Rasterize OPeration unit):96~128基
メモリ:18gbps GDDR6 256bitメモリ、メモリ容量16GB、バス幅576GB/s、18000MT/s(現行PS5のメモリは14000MT/s)
GPU:GFX1115。GPUコアが現行の18個から30個に増加。これは約1.66倍の増加
GPUキャッシュ:L1キャッシュが128KBから256KBに倍増、L0キャッシュが16KBから32KBに倍増
グラフィック性能:PS5比で45%向上。可変レートシェーディングやハイブリッドMSAAのサポートなど、DirectX 12 Ultimateの新機能を搭載。GPUのアーキテクチャがRDNA 2からRDNA 3に変更される可能性があり、これにより各GPUコアの演算機が2倍になる。
超解像技術:ソニー独自の超解像技術を搭載。高精細と高フレームレートを両立。AMD FSR2等の採用は無し。アップスケーリング/アンチエイリアスソリューション
(AMDのFSR(FiedelityFX Super Resolution)を搭載との話も)
Theoretical Performance
268.8 GPixel/s
Texture Rate
537.6 GTexel/s
FP16 (half)
34.41 TFLOPS (2:1)
FP32 (float)
PSのCPUはRayzen 7 7700X相当で、Intel Core i7-11700だと7割の性能で、Intel Core i7 12700で同じぐらいの性能となる。
M理論の幾何学を最も抽象的かつ厳密に記述するには、圏論的アプローチが不可欠でござる。
M理論の幾何学的構造は、三角圏の枠組みで捉えることができるのでござる。特に、カラビ・ヤウ多様体 X の導来圏 D⁰(Coh(X)) が中心的役割を果たすのでござる。
定義:D⁰(Coh(X)) は連接層の有界導来圏であり、以下の性質を持つのでござる:
1. 対象:連接層の複体
この圏上で、Fourier-向井変換 Φ: D⁰(Coh(X)) → D⁰(Coh(X̂)) が定義され、これがミラー対称性の数学的基礎となるのでござる。
2. 各対の対象 X,Y に対する次数付きベクトル空間 hom𝒜(X,Y)
3. 次数 2-n の演算 mₙ: hom𝒜(Xₙ₋₁,Xₙ) ⊗ ⋯ ⊗ hom𝒜(X₀,X₁) → hom𝒜(X₀,Xₙ)
これらは以下のA∞関係式を満たすのでござる:
∑ᵣ₊ₛ₊ₜ₌ₙ (-1)ʳ⁺ˢᵗ mᵣ₊₁₊ₜ(1⊗ʳ ⊗ mₛ ⊗ 1⊗ᵗ) = 0
この構造は、Fukaya圏の基礎となり、シンプレクティック幾何学とM理論を結びつけるのでござる。
M理論の完全な幾何学的記述には、高次圏論、特に(∞,1)-圏が必要でござる。
定義:(∞,1)-圏 C は以下の要素で構成されるのでござる:
2. 各対の対象 x,y に対する写像空間 MapC(x,y)(これも∞-グルーポイド)
3. 合成則 MapC(y,z) × MapC(x,y) → MapC(x,z)(これはホモトピー整合的)
この構造により、M理論における高次ゲージ変換や高次対称性を厳密に扱うことが可能になるのでござる。
M理論の幾何学は、導来代数幾何学の枠組みでより深く理解できるのでござる。
定義:導来スタック X は、以下の関手として定義されるのでござる:
X: CAlg𝔻 → sSet
ここで、CAlg𝔻 は単体的可換環の∞-圏、sSet は単体的集合の∞-圏でござる。
この枠組みにおいて、M理論のモジュライ空間は導来スタックとして記述され、その特異性や高次構造を厳密に扱うことが可能になるのでござる。
M理論の幾何学的側面は、量子コホモロジー環 QH*(X) を通じて深く理解されるのでござる。
定義:QH*(X) = H*(X) ⊗ ℂ[[q]] で、積構造は以下で与えられるのでござる:
α *q β = ∑A∈H₂(X,ℤ) (α *A β) qᴬ
ここで、*A はGromov-Witten不変量によって定義される積でござる:
α *A β = ∑γ ⟨α, β, γ∨⟩₀,₃,A γ
昨年、一念発起して100kgの大台から70kgまで、30kgの減量に成功した。
やたらと知見を共有したがるのはエンジニアの美点の一つだが、私もその例にならい、ここにダイエット中に学んだことを共有しようと筆を執っている。
ダイエットとはそもそも、日常の食事のことを指し、それが転じて食習慣の適正化を意味するようになった。
減量の本質もそこにある。
人は食べたものからできている。食習慣を適正化すれば、自然と健康的になる。
30kgもの減量に成功した最大の要因は、自分がエンジニアであったことだと思う。
そもそもプログラミングとは、入力されたデータに対して任意の出力データを得るために加工する、その計算方法を設計し、実装することを指す。
料理もまた同じで、食材という入力に対して、調理を実施し、料理という出力を得る。
そのため、体重と食習慣の適正化というプロジェクトに対して、プロジェクトのマネジメント手法が応用可能なのだ。
メモリ4GBのオンボロPC抱えてパイプ椅子で開発すすめても、ろくに進捗しないのと同じだ。
ただし、闇雲に金をかければよいというものでもない。投資すべきものというのは、だいたい決まっている。
どれも無くても減量自体は可能なものばかりだが、あったほうが効率が良い。
そもそも減量はモチベーション管理のゲームなので、自動化、簡易化できるところはやったほうがいい。
金を払って健康を買っていると考えればよい。
まったくアーキテクチャを考えず、行き当たりばったりでファイルごとに違う設計のプロジェクトは悲惨な結果を招く。
最初にこのアーキテクチャで行くと決め、ひとまずはそれを続けることが大事だ。
減量で言えば、ローファットでいくかローカーボでいくかということだ。
日によって低脂質でいったり低糖質でいったりするのは全く良くない。
自分は低脂質でいくことにした。そのほうが筋肉量の減少を抑えられるし、コレステロール値の改善にも効果的だからだ。
金融系プロジェクトにありがちな細かすぎるコード規約は有害無益で時間と金の無駄だが、余りにフリーダムなのも混乱のもとである。
減量でいえば、目標カロリー量とPFCバランスだ。ここがいい加減だと、到底うまくいかない。
カロリー量はハリス・ベネディクト方程式から出される基礎代謝の1.5倍とかに設定すればよいだろう
そのうえで、低脂質ならP:30%, F:20%, C:50%のように割り振ろう。
たとえば1600kcal目標なら、P: 480kcal = 120g, F: 320kcal = 35g, C: 800kcal = 200g、といった感じだ。
この規約を守るためにも、あすげん/カロミルがあれば、計算が楽だったというわけだ。
プログラミングでは、実行時に行うと重すぎる計算はビルド時など事前に行ったりすることがある。
初代スーパーマリオブラザーズのジャンプは、1フレームごとに重力係数をかけて計算しているわけではなく、加速度がハードコードされている。
ブロック崩しでさえ物理演算するような現代においても、似たようなことをすることはある。
ダイエットで言えば、時間的余裕のあるタイミングで、できることをしておけということになる。
キャベツを千切りにしたり、きゅうりやトマトを切ったり、オートミールに材料混ぜておくことは事前にできることなのだ。
夜寝る前などにやっておき、明日の調理工数を最低限にしておくことが大事だ。
処理したものはジップロックコンテナにでも入れて、冷蔵庫にしまっておこう。
よく食べる鶏むね肉や牛もも肉なんかもキロ単位で大量買いして、1食量ごとに切り分け、ジップロックバッグに入れて冷凍庫に入れておこう。
適切なキャッシュがもたらす実行速度の向上効果は非常に大きい。
これは料理についても言える。
毎食ごとに献立を考え、材料を揃え、包丁で切ったり、コンロで焼いたり…などの調理を行うのは非常に非効率である。
いわば冷蔵庫はメモリキャッシュであり、冷凍庫はディスクキャッシュのようなものである。
よく1人分作るのも3人分作るのも変わらないよ〜などと言うが、同じ理屈で1食分作るのも、3食分作るのも、手間としてはたいして変わらない。
すでに広く使われ、実績のあるライブラリがあるのに、なぜ一から作らなければならないのか。
これはダイエットについても言える。
安価で大量に手に入るカット野菜などは、買ってしまえばいいのだ。
たとえばきんぴらごぼう。作ると面倒なきんぴらごぼうだけど、その面倒さの9割はごぼうを千切りするところにある。
千切りして水にさらし終わったら、きんぴらごぼうの調理工程の9割は終わっている。
しかもこの部分は、工数が量に依存しているため、大量作成の恩恵を受けづらい部分だ。O(n)である。
一方でカットごぼうを大量買いすれば、あとは炒めるだけなので量に依存せず、大量作成が容易になる。O(1)にすることができる。
他にも、オイコスヨーグルトとか、サラダチキンとか、Baseブレッドなどの外部サービスを使うのも良い。
プロジェクトの初期段階、リードエンジニアが重要なクラス群とサンプルとなるクラスをいくつか作った後は、それをひらすらに横展開していくことになる。
この段階では天才エンジニアなど必要なく、コピペマンでじゅうぶんになる。むしろ下手に独自の考えを持たず従順に開発してくれるぶん、そのほうが良いことさえある。
ダイエットについても同じことが言える。
なぜ毎食毎食、独自の健康メニューを考え出さないといけないのか。食事の都度、栄養成分を計算し、調整しなければならないのか。
あすけんで一度100点をとったらあとは、ひたすらそれをこすり続ければいいだろう。
朝
蒸しかぼちゃ
昼
ふかしたさつまいも
蒸しかぼちゃ
夜
りんご(皮ごと)
蒸しかぼちゃ
毎食似たようなものを食べていることがわかるだろう。
これは日単位でも同じで、別の日は牛もも肉が刺し身になったり、さつまいもが蕎麦になったりはするが、その程度の差だ。
どうしても違うものが食べたくなったら、そのときに改めて計算すれば良いのだ。
そうすれば手持ちのカードが増えていく。
インシデントが発生したとき、必要なのはリカバリーであって、そんな時に人を責めても何の役にも立たない。時間の無駄だし、士気も下がるだけだ
こうしたとき、自分を責めても仕方がない。自分をクビにはできないし、ダイエットは長期戦なのだ。
ある日に食べすぎたからと言って、次の日にその分を減らすと、必要な糖質や脂質が不足して代謝が落ちてしまったり、だるさが抜けなくなったりするため、そういう方向でのリカバリーはやめよう。
しっかりと痩せる食事スタイルが確立しているなら、それを続ければ良いだけだ。
どうせ1食程度ではそんなに太ることはできない。
計測は減量期間中だけでなく、むしろ減量終了後にこそ必要になる。
そもそも、減量前の食事が減量前の体重を作り上げてきたのだから、減量前の食事に戻せば、体重も戻るのは当然のこと。
もとの体重に戻りたくないなら、新たな食習慣を作り上げる必要がある。
プロダクトリリース後、つまり減量後の運用フェーズにうつったら、減量飯でもデブ飯でもない、心にも体にも良い食習慣へと移っていこう。
急激なUI変更がユーザーの反発を招くように、急激な食事変更は体重の反発(リバウンド)を招く。
そこで、オートミールだったところを玄米ごはんにするとか、ささみだったところを蒸し鶏にするとか、ちょっとずつ維持するためのご飯へと変えていき、どのくらいの量なら大丈夫なのかを見つつ、ソフトランディングしていこう。
その核心は、具体的な数や図形から離れ、演算の性質そのものに着目することにある。
群論を例に取ると、群とは集合G上の二項演算・が結合法則を満たし、単位元が存在し、各元に逆元が存在するという公理を満たす代数的構造である。
この抽象的な定義により、整数の加法群(Z,+)や置換群S_nなど、一見異なる対象を統一的に扱うことが可能となる。
群論の発展は、ガロア理論を生み出し、5次以上の代数方程式の代数的解法が存在しないことの証明につながった。
環論では、可換環を中心に、イデアルや素イデアルの概念が導入され、代数幾何学との深い関連が明らかになった。
体論は、代数的閉体や有限体の理論を通じて、ガロア理論や暗号理論の基礎を提供している。
これらの理論は、単に抽象的な概念の探求にとどまらず、数論や代数幾何学、さらには理論物理学や量子情報理論など、広範な分野に応用されている。
例えば、リー群論は素粒子物理学の基礎理論となっており、SU(3) × SU(2) × U(1)という群構造が標準模型の対称性を記述している。
また、抽象代数学の概念は圏論によってさらに一般化され、函手や自然変換といった概念を通じて、数学の異なる分野間の深い関連性が明らかにされている。
圏論的視点は、代数的位相幾何学や代数的K理論などの現代数学の発展に不可欠な役割を果たしている。
単純な公理から出発し、複雑な数学的構造を解明していく過程は、純粋数学の醍醐味であり、同時に自然界の根本法則を理解する上で重要な洞察を与えてくれるのである。
数学的宇宙仮説を説明するには、宇宙をどのようにモデル化するかを考え、各理論の役割を明確にする必要がある。
以下に、各概念を説明し、物理宇宙を数学的にどのように捉えるかを示す。
数学的宇宙仮説の中心にあるのは、宇宙が数学的構造そのものであるという考え方である。数学的構造は、集合とその上で定義される関係や演算の組み合わせである。
具体例として、微分多様体を考える。微分多様体は、局所的にユークリッド空間に似た構造を持ち、滑らかな関数が定義できる空間である。物理学では、時空を微分多様体としてモデル化し、一般相対性理論の基盤としている。このように、宇宙全体を一つの巨大な数学的構造として捉え、その性質を研究する。
集合論は、数学の基礎を形成する理論であり、すべての数学的対象を集合として扱う。特に、Zermelo-Fraenkel集合論(ZFC)は、集合の存在とその性質を定義する公理系である。数学的宇宙仮説では、宇宙を集合として捉え、その集合上の関係や演算が物理法則を表現していると考える。
モデル理論は、形式的な論理体系が具体的な構造としてどのように実現されるかを研究する。数学的宇宙仮説では、物理宇宙がある論理体系のモデルであると仮定する。具体的には、物理法則を公理とする論理体系のモデルとして宇宙を捉える。これは、ペアノ算術の公理系のモデルとして自然数が存在するのと類似している。
カテゴリ理論は、対象(オブジェクト)とそれらの間の射(モルフィズム)を扱う理論である。カテゴリ 𝒞 は次のように定義される:
射は合成可能であり、合成は結合的である。さらに、各対象に対して恒等射が存在する。
数学的宇宙仮説では、宇宙を一つのカテゴリとして捉えることができる。カテゴリの対象は異なる数学的構造であり、射はそれらの間の変換や関係を表す。これにより、異なる「宇宙」間の関係性を数学的に探求することが可能になる。
トポス理論は、集合論の一般化であり、論理と空間の概念を統一する枠組みである。トポスは、論理体系のモデルとして機能し、異なる数学的構造を統一的に扱うことができる。
数学的宇宙仮説では、宇宙をトポスとして捉えることができる。トポスは、論理体系のモデルであり、異なる物理的現実を表現するための柔軟な枠組みを提供する。トポス理論を用いることで、宇宙の数学的性質をより深く理解することが可能になる。
数学的宇宙仮説を抽象数学で説明するためには、数学的構造、公理系、集合論、モデル理論、カテゴリ理論、トポス理論といった数学的概念を用いることが必要である。
これにより、物理的現実を数学的に厳密に記述し、数学と物理の深い関係を探求することができる。
この仮説は、数学的対象が物理的実体として存在するという新しい視点を提供するが、現時点では哲学的な命題としての性格が強く、数学的に証明可能な定理ではない。
AIに要約してもらった。
この文章は、ゲーム開発の変遷に対する筆者の考えを述べています。
昔のゲーム開発は、リードプログラマーが自前でエンジンや物理演算を作り上げる職人芸的な仕事でしたが、今ではUnityやUnrealのような汎用ゲームエンジンが普及し、エンジンを書く仕事がほとんどなくなりました。
これにより、ゲーム開発はコードを書く作業から、コンテンツ制作に重点が移り、以前のようなプログラミングスキルがあまり必要とされなくなったことを嘆いています。
また、技術の進化によって、昔の職人技が不要になり、その結果、ゲーム業界で活躍する機会が減ったプログラマーもいると指摘しています。
筆者は、時代の変化についていけない自身や同世代のプログラマーが「老害」となりつつある現状を認識し、技術職の未来に対する不安を表明しています。
浮動小数点演算ユニットなんてのは386の時代からあって(ユニット自体はもっと前からあったが)、nvidiaが爆成長したのは仮想通貨ブームでのマイニング需要が発生したからだよ
なんせ金が儲かるならいくらでも投資する人は現れるし、企業としてやるんだから一部のゲーマーが湯水のように金を使うなんてのとは需要のケタが違う
3Dとかは全く関係無いとは言わないが、処理自体は高度な事をしているのでは無く莫大な数のコアを使った並列処理で延々と単純な計算をしているだけ
(トータルのユニットとしては非常に高度な技術なのは言うまでも無い)
それがマイニングやAIの処理にも使えたというもの。このタイミングでマイニングやAIが出てきたのは偶然に近いと言っていい
後、スパコンに関しては全く関係が無い。nvidiaはスパコンで莫大な利益を挙げているわけでも無いし、そもそもスパコンと言ってもいろいろな評価軸があるが最も重要なのは逐次処理性能
アウトプットのタイミングを問われない並列処理ならコアを増やせば理論上いくらでも性能はあがるが、アウトプットを待って次の処理に入る様な複雑な計算こそがスパコンに求められているもの
これは今我が世の春を謳歌している3DプロセッサやArm等に代表されるRiscCPUが最も苦手とする物。つまり全くジャンルが違う