はてなキーワード: レンダリングとは
PythonでTk使って芸人?がゲーム作る企画やってたけど、なんでpygame使わないんだろう…😟
というか、もういい加減Tcl/TkのTkだけ延命するのやめない?
権利の問題とか色々あるけど、Qtの方がまだマシだし、まあQt見てれば分かるけど、マルチプラットフォームのGUIを実現するってかなりキツイ作業だし、
メンテのコストもかかるから、いつまでもTkにしがみついてるの分かるけどさ…
imguiって、なんもしてなくても画面更新してるんだろうし、かなりエコじゃないと思うんだけど、画面更新するアプリ、ゲームとかには適しているし、
てか、もうマルチプラットフォームのGUIって、特殊な状況を除けば、もうWebブラウザだよな
最初の話もPythonじゃなくて、JavaScript使えばいいのに…
確かに、リアル寄りのVtuberに興味を持つ人が増えてきていると思うよ。最近は技術の進化もあって、かなりリアルなアバターを使ったVtuberも現れてきているね。
海外でもそういったトレンドは確実に進んでいると思う。特にアバターのレンダリング技術やモーションキャプチャー技術が進化して、より自然な動きや表情を再現できるようになっているし。それに加えて、AIボットを使ったインタラクティブなコンテンツが増えてきているのも興味深いところだね。
具体的な名前を挙げると、海外でもバーチャルYouTuberとして活動しているLil Miquelaという存在がある。彼女はVtuberというよりもバーチャルインフルエンサーと呼ばれることが多いけど、彼女の見た目や動きは非常にリアルで、現実と見分けがつかないほどだよ。
将来的にはもっとリアルなVtuberが増えてくるんじゃないかな。どんどん新しい技術が導入されて、さらにリアリティが増すのが楽しみだね。
いやぁ〜、テキストエディタの世界、めっちゃディープでんねん!聞いてくださいよ〜。
まず、テキストエディタの心臓部、バッファ管理システムについてや。これ、単なるテキスト保持やないんですわ。例えば、Emacsのガベージコレクション機構。マーク&スイープ方式採用してて、バッファ内のLispオブジェクトを効率的に管理してんねん。これがあるから、長時間の編集作業でもメモリリークせーへんのや。
次に、レンダリングエンジン。これが曲者でんねん。Unicode標準のUAX #9に準拠した双方向アルゴリズム実装せなアカン。さらに、合字処理のためにOpenTypeのGSUB/GPOSテーブル解析も必要や。Harfbuzzライブラリ使うんやけど、カスタムシェーピングエンジン組み込んで、特殊な文字体系にも対応せなアカンのや。
構文解析エンジンも侮れまへんで。LR(1)パーサーじゃ複雑な言語構文に対応でけへんから、GLR(Generalized LR)パーサー実装するんや。これで曖昧な文法も扱えるようになるんですわ。Treesitterライブラリ使うと、インクリメンタルな構文解析ができて、巨大ファイルでもリアルタイムにハイライティングできるんや。
差分アルゴリズムも奥が深いんですわ。Myers差分アルゴリズムだけやなくて、Histogram差分アルゴリズムも実装せなアカン。大規模リファクタリングの差分表示に効くねん。さらに、セマンティック差分アルゴリズムも組み込んで、構造的な変更も検出できるようにするんや。
非同期処理システムもめっちゃ重要や。単なるPromiseやasync/awaitやのうて、Reactive Extensionsベースのストリーム処理実装するんや。これで、複雑なイベントシーケンスも扱えるようになるんですわ。さらに、アクターモデルベースの並行処理システム組み込んで、マルチコア活用した並列処理も可能にするんや。
最新トレンドもめっちゃアツいんですわ。例えば、Language Server Protocolの拡張や。単なる静的解析やのうて、シンボリックAI使うた意味解析まで可能にしてるんや。これで、コードの意図を理解して、より高度なリファクタリング提案ができるようになるんですわ。
WebAssembly統合も進化してるんや。Single Instruction, Multiple Data (SIMD)命令セットサポートで、テキスト処理のパフォーマンスが爆上がりしてんねん。さらに、WebAssembly System Interface (WASI)採用で、ファイルシステムアクセスも可能になってるんや。
AI支援機能も侮れまへんで。単なる補完やのうて、プログラム合成(Program Synthesis)技術導入してるんや。部分的な仕様から完全なコードを生成できるようになってんねん。さらに、説明生成AI組み込んで、生成されたコードの詳細な解説までしてくれるんですわ。
リアルタイムコラボレーションも進化してるんや。Conflict-free Replicated Data Type (CRDT)のカスタム実装で、ネットワーク遅延があっても一貫性保てるようになってんねん。さらに、意図ベースの競合解決アルゴリズム導入して、複雑な編集操作の衝突も自動解決できるようになってるんや。
拡張性アーキテクチャもすごいんですわ。WebAssemblyベースのプラグインシステム採用して、言語に依存せんプラグイン開発可能になってんねん。さらに、サンドボックス化されたランタイム環境提供して、セキュアなプラグイン実行も実現してるんや。
性能評価も厳しくなってるんですわ。起動時間は、コールドスタートだけやのうて、ホットスタートも測定せなアカン。メモリ使用量も、物理メモリだけやなくて、仮想メモリの使用状況も追跡するんや。CPU使用率は、マイクロアーキテクチャレベルの最適化まで求められるようになってんねん。レンダリング性能は、GPUアクセラレーションの効率も評価せなアカンのや。応答性は、入力レイテンシだけやのうて、知覚的な応答性(Perceived Responsiveness)も測定するんですわ。
いや〜、テキストエディタの世界、マジでディープすぎて、もう頭おかしなるで〜!こんな感じで、テキストエディタの最深部まで潜ってみましたけど、いかがでしたか?テキストエディタ、侮れまへんで〜。ホンマに。
コースレイアウトが3D映像で表示され、各プレイヤーのプレイ状況が逐次3Dコース上にレンダリングされるとのこと。
そもそもVision Pro用アプリ以前にPGA TOURの規模の大きな大会ではTV中継時に打球の奇跡が映像にオーバーレイされて放映されてたらしく、それを実現する機材をそのままVision Proの3Dコースに反映する仕組みとのこと。
そのためのスキャン装置や、プレイヤーのプレイ状況を把握するための仕組み等についてtech系YouTuberのMarques Brownleeがそのあたりの仕組み解説する動画上げてて興味深かった。
ゴルフは設備がスゴく大変そうだけど、サッカー、野球、バスケ等々、他のスポーツもこういう観戦アプリでそのスポーツへの理解を深めることが出来そうだなと思った。
結局のところ2003年から2011年頃までいちばん延べ計算量が必要だったのはリアルタイムの3Dグラフィックスのレンダリングだったんだ。そこではNVIDIAって会社がPCゲームのプラットフォームを握ってしまっていてそこで技術開発をめっちゃ進めてしまったんだ。
結果的にPlayStation2までは純日本設計だったグラフィックチップが、PlayStation3ではNVIDIAのGPUになってしまったんだ。そこで負けが確定してしまった感じだ。PlayStation3のCPU、CELLに内蔵されているSPUは、世代をどんどん進めていったら最終的にレンダリングもできるグラフィックチップに進化する可能性があったのかもしれないけど次世代が出せなかったのでそこで終わりになってしまった。
NVIDIAは先端を走っているユーザーが何を求めているかをめちゃくちゃちゃんと調査して、彼らがちゃんと新しいことを効率よくできるようなチップを開発してくるんだ。だからハードウェアTLが必要になってきたときにGeForceを出してきたし、その後ポリゴンへの複雑なマッピングを駆使してリアルなグラフィックスを構築しだしたらシェーダアーキテクチャを提案してきて、そのシェーダプログラミングでレイマーチングを遊びでみんながやりだしたらリアルタイムレイトレをハードウェアでサポートしたRTXをリリースしてきたしAIもそうだ。いまコンピュータを使っているユーザがどのようなことをやって、次に何が求められているのかを見極めるのが上手なんだと思う。
京の事業仕訳けの議事録を再度読み返したけど、確かにそこにはスーパーコンピュータのユーザーを見ておらず「国民に夢を与える、あるいは世界一を取ることによって夢を与えることが、実は非常に大きなこのプロジェクトの1つの目 的 」などとボケたことを言っている説明者たちと、いやいや実際のユーザはそんなのを求めてるわけないだろという金田先生の議論がつづいていて、そのへんが日本が負けた原因なんじゃないかなあーって思うんだよ。
ただ運も味方していて、NVIDIAが計算能力をバカみたいに使うグラフィックスを提案して微妙な感じになってたところに、ビットコインのマイニング需要があって、そのあとにAIが盛り上がった。計算能力をうまく価値にしてくれる応用がいい感じに出てきていまに至ってるんで、とりあえずやってみて一位とってみろよ、みたいな話が必ず悪いわけではないかもしれない。
Intelは偉くて、GPUでNVIDIAやATI(現AMD)に完全に負けていて後塵を拝していたにもかかわらず、じわじわとCPU内蔵のグラフィックチップの性能を上げていきディスクリートGPUも作るようになり、昨年ちゃんとその成果が世界2位のAuroraスーパーコンピュータとして実稼働を始めてたのですごいなと思ったよ。そのAuroraはGPUもCPUもIntel製で2位、1位のFrontierはGPUもCPUもAMDなんだけどね。結局のところ一般用途で台数が出てない状態ではスパコンを作れるような技術も養成できないってことだったんだろうと思う。
当時の日本では携帯電話向けのプロセッサしか数が出るものがなかったから、そこに全力投球して、でもガラケーではグローバルに売れないからPDAに販路を広げてiPhoneやAndroidに採用してもらう、みたいな流れができれば最高だっただろう。でもそんな戦略を説明して実行に移せるトップが日本の家電メーカーのトップには居なかったんだ。だってあいつらテレビやブルーレイをどう売るかしか考えてなかったんだもん。PocketPCに載ってたIntelのXScaleが没落したときを狙ってちゃんとチップを出せてればチャンスがあった。でもそこに載ったのはSamsungやTI、そしてQualcommのチップだった。TIは撤退してしまったけどSamsungはまだプロセッサを作り続けている(これはGalaxyという大きな需要があるからできているのだと思う)。
はい、ブラウザの実装は確かに**コンピュータサイエンス**の一部です。以下に、その理由をいくつか挙げてみます:
1. **アルゴリズムとデータ構造**:ブラウザは、効率的な検索、ソート、データの格納と取得など、多くのアルゴリズムとデータ構造を使用します。
2. **ネットワーキング**:ブラウザは、HTTPやHTTPSなどのプロトコルを通じてインターネットと通信します。これらのプロトコルの理解と実装は、コンピュータサイエンスのネットワーキングの分野に直接関連しています。
3. **レンダリングエンジン**:ブラウザのレンダリングエンジンは、HTML、CSS、JavaScriptなどのコードを解析し、それをユーザーが見ることができる視覚的なウェブページに変換します。このプロセスは、計算理論、グラフィックス、プログラミング言語の理解を必要とします。
4. **セキュリティ**:ブラウザは、ユーザーのデータを保護するために、さまざまなセキュリティメカニズムを実装します。これには、暗号化、サンドボックス化、同一生成元ポリシーなどが含まれます。
これらすべての要素は、コンピュータサイエンスの基本的な概念に基づいています。したがって、ブラウザの実装は、その「サイエンス」の部分を明確に示しています。ブラウザの設計と実装は、これらの理論を実際の製品に適用するための実践的なフレームワークを提供します。それらは、問題解決、効率的な設計、そして最終的にはユーザーに価値を提供するための方法を探求します。これが、ブラウザの実装がコンピュータサイエンスである理由です。
友情・努力・勝利の方程式を単項で解くとインフレする、というだけの話
同時期のバトル漫画でも雑誌が違うと「友情・努力・勝利」ではなかったりするので
一方でジョジョは明確にインフレとは違っていて能力バトルになっていった
ドラゴンボールに対するアンチテーゼとしては同じジャンプのジョジョになるんだと思う
「友情・努力・勝利」を単純に見せたいだけなら別にインフレして問題無い
ゲームで映像のクオリティを上げれば面白い、というのはちょっと違っていて
例えばオープンワールドだとそもそも映像のクオリティを上げないとゲームとして成り立たない
これは写実的かどうかというだけじゃなくて膨大なアイテムやクエスト、敵をちゃんと表現できるかどうかによってゲーム性が変わる
例えばマイクラって写実的ではないけれどレンダリング範囲が狭いと全然ゲームとして成り立たないのでSwitchだとクソゲーになってる
8番出口も現実と見紛うほどのリアリティがあるからこそ違和感に意味があるのであって
昔はCGクオリティを上げるのにめちゃくちゃ資金と技術が必要だったけど
今だと環境が充実しすぎてて割と簡単に高クオリティの映像が作れてしまう
ただ、それをゲームにどう活かせるかが重要、というのは昔から一緒
そして今も昔も「映像が凄い」というだけで名作扱いされるようなことは一切無い
そもそも映像に金がかけられるようなゲームはゲーム性やトータルバランスをちゃんと考えていることが「多い」のでそう思われてる
いろいろ酷くてびっくりした
iPhone版でいいからやってみたらびっくりするんじゃないかな
例えば、まず起動がめちゃくちゃ遅い
足下付近は表示されてるけどすぐそこにある山がレンダリングされないから何も見えない
少し移動するとその先が見えないから立ち止まってレンダリングされるのを待つ→移動するの繰り返しでストレスが半端ない
砂浜を移動すると宝の地図に載ってるチェストだけが先にレンダリングされてそれから砂浜がレンダリングされるので
調べて見たら洞窟とかも全部透視できるから廃坑・ダイヤモンド・古代都市とかも簡単に見つかるらしい
もはやゲームとして成立してない
高台に上ってあたりを見渡すとか海を渡っていたら遠くに島が見えてきたとか
そういうことが全然できないんだけど、どうやってバイオーム探してるの?
というかネザーとかエンドとかの探索って不可能なんじゃないの、これ
位置固定で回転しかできないので、女優のパンティー、下から見るか?横から見るか?とか選択肢がない
できればMeta Quest単体で動作してほしい
PC側でレンダリングすると、PCのそばで寝ないとならないし、寝床でQuest単体で動作してほしい
あ、無線でリンクできるからPCのそばでなくてもいいのか…、マシンスペックの問題か…
というか、リアルタイムレンダリングにするなら、もう女優ではないわけだけど、声をどうするかが問題かな
リアルな喘ぎ声とかって生成できるんだろうか
そのバックで生成AIが動いて人格っぽいのができれば、あとは触覚だな、究極のハプティックフィードバックだな
騎乗位で女性に乗っかられても重さを感じないし、身体全体の触覚をどうするかだな
究極まで行けば彼女はいらなくなるし、多分、女性も彼氏はいらなくなるはず
AIはどこまでもあなたに優しくなれるし、DVもしないし、あなたのDV加害さえも許してくれるようになる
それかメイドロボなんだろうけど、ボストン・ダイナミクスのアトラスに騎乗位される恐怖もある
寝ながら大画面のディスプレイでネット眺めるだけであれば何の問題もない
Apple Vision Proなんて買わなくても満足してる
寝ぼけて破壊したとしても数万円だし
実際に完全に寝そべって鑑賞すると、頭の高さに違和感がある
あと、男優が微妙に斜めに寝ていたりすると、騎乗位の女優の位置がズレてしまう
あと、VRのAVは基本カメラの位置は移動できないわけだけど、
いわゆるハメ撮り系はFPSとか30年以上プレイしてきた自分でも酔って駄目だった
自分の意志に関係なくカメラが動く、回転するというのは意外と耐えられないものなんだな
自分はどんなゲームでも3D酔いしない自信があったが、ハメ撮り系のVRAVは駄目だった
残念である
でも、これからAV女優じゃなくてリアルタイムレンダリングされた3Dモデルになって、
それでも現実と見まごうぐらいリアルになって、コントローラもグリップ式からグローブになったり、
ちんぽにオナホ型のコントローラが装着できるようになるだろうから、
もうVR元年は終わってると思う
以前 https://anond.hatelabo.jp/20240104093645 を書いた増田だが、動画をレンダリングしている間ヒマなので、この前書いたのをもう少しきちんと書いておこうと思った。
なぜVisit Japan Webがクソなのか。これは圧倒的なユーザ体験の悪さにある。
Visit Japan Webを使うと以下のような流れになる。
まずここがとてつもなくクソ。ほとんどの国民は年に数回も海外に行かない。その帰国のときに使うためだけにアカウントを作らせる。こんなの次に使うときにはパスワードを忘れるに決まっている。まあ俺の場合はlast passに保存してあるので問題ないが、そうでない人はどうフォローアップするのか。税関前の手荷物受取所というのはあまり落ち着いて作業などできる場所ではないから、思い出せずあーもう紙でいいやってなる人もいるかもしれない。
次に作ったアカウントとパスポートを紐付ける。ここもクソ。利便性のためにパスポートの顔写真ページを写真で撮って自動認識させるよう誘導されるが、自分の場合は何回やっても認識できず、手作業でパスポート番号や有効期限などを手入力した。おそらくこれは後述する顔認識と紐付けたり、追跡できるように身元の情報を持たせておくためだと思われる。そもそもパスポートにはこれらの情報が入ったICチップがあるのだから、そこから読めばいいじゃないかと思うがそれはしない。たぶんこれも後述するように入管と税関の役所の壁があるんじゃないかと思う。
従来紙でチェックしていた各項目、例えば銃はありませんよね、とか、100万以上の現金はありませんよね、とかを答えさせる。紙でやろうがブラウザでやろうが質問自体は変わらないのであーはいはいいつものやつねとバババといいえをチェックすることになる。私もそうだったが、ほとんどのひとはまともに質問を見ていないんじゃないか。いわずもがなクソである。
答え終わったら顔認識ゲートで顔を照合しQRコードをスキャンさせ、通過して入国完了となる。
で、考えるに、これ最後の顔パスをやりたいがためのシステムだよな、と感じる。最初に顔パスで通らせろというお題目があって、それをやるために現場の役人、別に決してバカにしているわけではないが、その役人がいやいや顔パスだけでは困る、追跡できないとダメだとかちゃんと自己申告したことのエビデンスがないとダメだとか条件つけて、SIerが脳死でシステム作っていっちょうあがり、的な作りだなと感じた。ガラパゴス日本の伝統芸能的なクソシステム。
で入国時に、おそらく若手か業務委託の会社であろう女性の方が「スムーズな入国処理のためQRコードの登録をお願いしますー」と言って回っているのだ。実際にやってみればわかるんだけど、別にQRコードの登録(=Visit Japan Webへの登録)をしようがしまいが、ひとりひとりの税関の通過に要する時間はほとんど変わらない。みんなわかってるんだと思うが、Visit Japan Webを登録して顔認証ゲートを通過している人はほとんどいなかった。私の感覚では100人に一人くらいかな。みんなクソってわかんだね。あの若手の女性の係官も税関の仕事ができるからには優秀だろうにこんなクソ仕事させられてて不憫だ。
ということで、Visit Japan Webはクソが何段にも積み重なった壮大な巻きグソだったですよって話。
そもそも私が経験する中で、入国時の税関申告と、役人の手荷物対面チェックを併用している国は日本しかない。記憶では韓国台湾香港は税関申告があった気がするが、対面での手荷物チェックはなかった気がする。EUやアメリカではそもそも申告すらなかった(ゲート自体はあるが、申告品がない人はそのまま通過できるゲートを通って出ることができる)と記憶している。想像ではあるが、入国管理と税関が役所として分かれているため、それぞれチェックポイントを設けているのが日本なのではないかと思う。
クソクソ言ってるだけで対案を出さないのはよくないので以下は私なりの対案。
パスポートをスキャンし、実際の顔とも照合しているので、追跡可能な本人であると確認できる。自己申告を省略することは難しいかもしれないので、タブレットで答えさせる。もちろんアカウントも作らない。
ランダムにピックアップして検査。ひっかかったばあいはその場で対応するか、パスポート情報から追跡。
どうだこの方が簡単でしょ。理想的には部署的にも入国管理と税関はいっしょになったほうがいいと思うけど、それは難しいかもしれないから、実運用的には上記のやり方はありなんじゃないかと思うんだよね。
たぶん私はこういうシステム考える人々から比べたらバカなのかもしれないから、突っ込みどころがあったらよろしくおねがいします。