はてなキーワード: オンボードとは
Sランク:Proliant DL20 Gen9
Aランク:PowerEdge R320、PowerEdge R210 II
Cランク:FUJITSU PRIMERGY TX1320 M2
■Sランク:Proliant DL20 Gen9
小さい、安い、ウェブブラウザからBIOS画面の操作ができる。
PCIE接続のRAIDカードがついていない場合はオンボードのRAIDコントローラーで動作し、その場合、RedHat系のOSのインストールがちょっと大変。
最新のOSであるAlmaLinux9、Ubuntu24などもインストールできる。
安い。
自分が買ったときはヤフオクで3000円だった。外付けHDDケース買うより安い。
仮想基盤用のラックサーバーが欲しいとき、4コア8スレッドでは心もとないが、このマシンなら8コア16スレッドできる。
R320に適合する8コア16スレッドCPUは1500円で買えてしまう。
ウェブブラウザからBIOS画面を操作する機能もあった気がする。(うろ覚え)
小さい、安い。
Sandy Bridge世代のCPUを使うので余り物でよい。
自宅サーバーとして使うには厳しい。
体積こそR320と同じだが、CPUを二つ載せられたりちょっと豪華。
でも要らない。値段も高い。
これを買うなら小さいのを二つ買ったほうがいい。
■Cランク:FUJITSU PRIMERGY TX1320 M2
何万円もするライセンス料を払わないとウェブブラウザからBIOS画面を操作する機能を使えない。
OSのインストールは頑張る必要が時々ある。Proxmoxはインストールできなかった。
開閉がとても面倒。官公庁が大量に買ってくれるから、といい加減な気持ちで作っているのではないかと疑ってしまう。
グラボを載せられるのが利点。
■番外編
・Jamper EZbook X3 CeleronN3450
サーバーとして使っていたところバッテリーが膨張して変形した。
今は内蔵バッテリーを外して使っているが悪くない。
とても小さく、超低消費電力だ。
スリムタイプPCなのに3.5インチHDDが2つつけられる。グラボも付けられる。
2位じゃだめなのか発言を批判している人達は未だに現実を直視できないでいるが、結論から言えば、それは1位でもだめだった。
今はAIが話題になっているが、その前段階のディープラーニングや、イーサのマイニングの時点でCPUは既に「オンボード」だった。
決められた箱の中で金だけ遣って1位を取っても意味がない。箱を突き破ってでも新しい世界を創造しようという気概がなければ、人を惹きつけることはできない。
先輩方は、自分達が若い頃は体罰に耐えた、パワハラに耐えた、これだけ我慢したのに報われないのは理不尽だ、最近の若者は甘やかされているとのたまうが、
それだけ頑張ったのに報われなかったのなら、やはりそれは何かが間違っていたんだと思う。例えば暴力を振るわれたのなら、なぜ殴り返さなかったんだ?
弱いからか?怖いからか?戦うことから逃げて敗者になったのに、なぜそれが努力したことになるんだ?なぜそれが報われると信じる?
日本人は未だゆりかごの中にいる。日本政府がその価値を保障してくれるという日本円は価値が下がり続けているが、政府の保障も何もないビットコインは上がり続けている。
国民年金があれば老後もなんとかなるだろうと皆が思っているが、支給開始年齢も金額も変幻自在のこの制度は、絶対に破綻しないことにより相当タチが悪くなっている。
国民皆保険は日本が世界に誇る素晴らしい制度だと皆は言うが、税負担は重くなる一方だ。
思い出してほしいが、日本は民主主義の国だ。すべての物事が民主的に決定されるのなら、優秀な政治家なんてものは必要がないはずだ。
もしそんなのが存在するのなら、それは独裁者であり、専制君主であり、絶対的権力者ということになる。
この国のかたちは、ほとんどの国民にとって理想的なものだ。夏休みの宿題は最終日にやればいい。そう思っているから世の中にしっかりと反映されている。
政治家が悪いとか、作戦が悪いとか、色々な言い訳が思い付くだろうが、結局は実力が一番大事だ。怠けた事への報いは、身を以って知るといい。
これはおそらく3つの中で最も簡単な方法だ。現在のChatGPTは、基本的に、テキストを入力できる孤立した箱の中に座っている人間のようなものだ。初期のアンホブリング改良では、個々の孤立したツールの使い方をモデルに教えていましたが、マルチモーダルモデルでは、近いうちにこれを一挙にできるようになると期待しています。
つまり、Zoomでの通話に参加したり、オンラインで調べ物をしたり、メッセージや電子メールを送ったり、共有されたドキュメントを読んだり、アプリや開発ツールを使ったりといったことだ。(もちろん、より長いホライゾン・ループでモデルがこれを最大限に活用するためには、テスト時間のコンピューティングをアンロックする必要がある。)
最終的には、ドロップイン・リモートワーカーのようなものができると期待している。エージェントは、あなたの会社に入社し、新しい人間の雇用のようにオンボードされ、Slackであなたや同僚にメッセージを送り、あなたのソフトウェアを使用し、プルリクエストを行い、大きなプロジェクトがあれば、人間が独立してプロジェクトを完了するために数週間留守にするのと同等のことができる。これを実現するためには、GPT-4よりもいくらか優れたベースモデルが必要だろうが、おそらくそれほどでもないだろう。
https://situational-awareness.ai/wp-content/uploads/2024/06/devin.gif
Devinは、完全に自動化されたソフトウェア・エンジニアを作るために、モデル上の「エージェンシー・オーバーハング」/「テストタイム・コンピューティング・オーバハング」を解除する初期のプロトタイプだ。Devinが実際にどの程度機能するかはわからないし、このデモは、適切なチャットボット→エージェントのアンホブリングがもたらすものに比べれば、まだ非常に限定的なものだが、近々登場するもののティーザーとしては役に立つだろう。
ところで、私は、アンホブリングの中心性が、商業的応用という点で、少々興味深い「ソニックブーム」効果につながると期待している。現在とドロップイン・リモートワーカーの中間モデルは、ワークフローを変更し、統合して経済的価値を引き出すためのインフラを構築するために、膨大な手間を必要とする。ドロップイン・リモートワーカーは、統合が劇的に簡単になる。つまり、リモートでできるすべての仕事を自動化するために、ドロップインするだけでいいのだ。つまり、ドロップイン・リモートワーカーが多くの仕事を自動化できるようになる頃には、中間モデルはまだ完全に活用され統合されていないため、生み出される経済価値のジャンプはやや不連続になる可能性がある。
https://situational-awareness.ai/wp-content/uploads/2024/06/overview_ooms_gpt2togpt4.png
https://situational-awareness.ai/wp-content/uploads/2024/06/overview_ooms_2023to2027.png
数字をまとめると、GPT-4に続く4年間で、2027年末までにGPT-2からGPT-4規模のジャンプが再び起こると(おおよそ)予想される。
GPT-4のトレーニングに3ヶ月かかったとしよう。2027年には、一流のAIラボはGPT-4レベルのモデルを1分で訓練できるようになるだろう。OOMの効果的なコンピュート・スケールアップは劇的なものになるだろう。
それは我々をどこへ連れて行くのだろうか?
https://situational-awareness.ai/wp-content/uploads/2024/06/overview_counting_the_ooms.png
GPT-2からGPT-4までで、私たちは~未就学児から~賢い高校生になった。とんでもないジャンプだ。もしこれが、私たちが今一度カバーする知能の差だとしたら、それは私たちをどこに連れて行くのだろうか?私たちは、それが私たちをとてもとても遠くに連れていっても驚かないはずだ。おそらく、ある分野の博士や最高の専門家を凌駕するようなモデルまで到達するだろう。
(このことを考える1つの良い方法は、現在のAIの進歩の傾向は、子供の成長のおよそ3倍のペースで進んでいるということだ。あなたの3倍速の子どもは高校を卒業したばかりだが、いつの間にかあなたの仕事を奪っていくだろう!)
続き I.GPT-4からAGIへ:OOMを数える(10) https://anond.hatelabo.jp/20240605211837
今後数年間の野心的なアンホブリングはどのようなものになるのでしょうか?私が考えるに、3つの重要な要素がある:
GPT-4は、多くの人の仕事の大部分をこなせるだけの生の賢さを持っているが、それは5分前に現れたばかりの賢い新入社員のようなものだ:関連するコンテキストを持っておらず、会社のドキュメントやSlackの履歴を読んだり、チームのメンバーと会話したり、会社内部のコードベースを理解するのに時間を費やしたりしていない。賢い新入社員は、着任して5分後にはそれほど役に立たないが、1ヶ月後にはかなり役に立つ!例えば、非常に長いコンテクストを通じて、新しい人間の同僚を雇うようにモデルを「オンボード」することは可能なはずだ。これだけでも、大きなアンロックになるだろう。
2.テスト時間の計算オーバーハング(より長いホライズンの問題に対する推論/エラー訂正/システムII)
今のところ、モデルは基本的に短いタスクしかこなせない。しかし、これでは非常に限界がある。5分どころか、数時間、数日、数週間、数ヶ月かかるのだ。
難しい問題について5分間しか考えることができない科学者は、科学的なブレークスルーを起こすことはできない。ソフトウェア・エンジニアは、より大きな仕事を与えられ、計画を立て、コードベースや技術ツールの関連部分を理解し、さまざまなモジュールを書いて段階的にテストし、エラーをデバッグし、可能性のある解決策を検索し、最終的には数週間の仕事の集大成である大規模なプル・リクエストを提出する。などなど。
要するに、テスト時間の計算オーバーハングが大きいのだ。GPT-4の各トークンは、問題を考えるときの内部モノローグの言葉だと考えてください。各GPT-4トークンは非常に賢いのですが、現在のところ、思考の連鎖のために~数百トークンのオーダーしか効果的に使うことができません(あたかも問題やプロジェクトに数分しか内部独白/思考を費やせないかのように)。
もし数百万トークンを使って、本当に難しい問題や大きなプロジェクトについて考え、取り組むことができるとしたらどうだろう?
トークンの数 | 私が何かに取り組むのに相当する時間... | |
100s | 数分 | ChatGPT (私たちはここにいる) |
1000s | 30分 | +1 OOMsテスト時間計算 |
10,000 回 | 半日 | +2 OOMs |
100,000ドル | 1週間 | +3 OOMs |
数百万回 | 複数月 | +4 OOMs |
人間が〜100トークン/分で考え、40時間/週働くと仮定して、「モデルが考える時間」をトークンで換算すると、与えられた問題/プロジェクトにおける人間の時間になる。
仮に「トークンあたり」の知能が同じだったとしても、頭のいい人が問題に費やす時間が数分なのか数ヶ月なのかの違いになる。あなたのことは知らないが、私が数ヶ月でできることと数分でできることは、はるかに、はるかに、はるかに多い。もしモデルに「数分ではなく、数カ月に相当する時間、何かを考え、取り組むことができる」という能力を与えることができれば、その能力は飛躍的に向上するだろう。ここには膨大なオーバーハングがある。
今のところ、モデルにはまだこれができない。最近のロング・コンテキストの進歩をもってしても、このロング・コンテキストのほとんどはトークンの消費にしか機能せず、トークンの生産には機能しない。しばらくすると、このモデルはレールから外れたり、行き詰まったりする。しばらくの間、離れて単独で問題やプロジェクトに取り組むことはまだできない。
しかし、テスト時間の計算を解除することは、単に比較的小さな「ホブリングしない」アルゴリズムの勝利の問題かもしれない。おそらく、少量のRLは、モデルがエラー訂正(「うーん、これは正しくないようだ、再確認してみよう」)を学習したり、計画を立てたり、可能性のある解を探索したりするのに役立つだろう。ある意味、モデルはすでに生の能力のほとんどを持っており、それをまとめるために、さらにいくつかのスキルを学習する必要があるだけなのだ。
要するに、私たちはモデルに、困難で見通しの長いプロジェクトを推論させるシステムIIのアウターループのようなものを教えればいいのだ。
この外側のループを教えることに成功すれば、2、3段落の短いチャットボットの答えの代わりに、モデルが問題を考え、ツールを使い、異なるアプローチを試し、研究を行い、仕事を修正し、他の人と調整し、大きなプロジェクトを一人で完成させるような、何百万もの言葉のストリーム(あなたが読むよりも早く入ってくる)を想像してみてほしい。
続き I.GPT-4からAGIへ:OOMを数える(9) https://anond.hatelabo.jp/20240605210357
そういう話だったなら、オンボード→iGPU って書き方になるはず
せっかく課金したのにユーザが増えまくっているのか滅茶苦茶重くなっていて最悪。
だから流出したモデルを使ってローカルでNAIの環境を構築する。
ネットには情報もだいぶ転がってるけど陳腐化した情報があまりに多いため増田にまとめることにした。
もしかしたらこの記事もすでに陳腐化しているかもしれないが…単純に間違ってたらトラバで教えてほしい。
もちろん自己責任。この記事を見て導入した結果何かあっても増田は何も保証しない。
英語がわかる人はこっちを見た方が早いと思う。今は導入RTAができるくらい導入は楽になっている。
https://rentry.org/nai-speedrun
VRAMが2GB以上あるNVIDIA製のグラフィックボードがあればローカル環境を構築できる。
GPUの世代はGTX700シリーズ以降。なので一昔前のミドル級ボードでも動作するらしい。
IntelのオンボードGPUでも実行する方法があるらしい(stable_diffusion.openvino)が今回は割愛する。自分で探してね。
その他の推奨環境は以下の通り。
対応OS:Windows7以上(と言うがM1Macでも動作する方法があるとかなんとか)
メインメモリ:16GB以上(VRAMもたくさん必要だが起動時にメインメモリも大量に食う。WebUI起動時にタスクマネージャを見ているとよくわかる)
スマホしか持ってないような人やこういうのがよくわからない人はNovelAIを使った方が良いと思う。
今は重いけど、きっとそのうちみんな飽きてサーバも軽くなるかもしれないし。
(追記)NovelAIがリソースを確保してサーバが軽くなったからリスクを背負ってまで導入しなくても良いかも
(追記)Pythonは当然3系。最新の奴を入れれば問題無い。
導入方法はいちいち書かないけど、「python --version」や「git -v」で
正常にバージョン情報が出る(パスがきちんと通っている)ことはちゃんと確認しよう。
Stable Diffusion web UIはStable Diffusionやそれをベースとした画像生成AIを利用するためのフロントエンド。
その中でも特に開発が活発でデファクトスタンダードとなっているのがAUTOMATIC1111版だ。
導入したい適当なディレクトリに対してPowerShellなどで
「git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git」
なお、AUTOMATIC1111版は数時間単位でコミットが行われるから
定期的に「git pull origin master」で更新しよう。
クライアントはqBitTorrentが一番楽だと思う。
ここにはさすがにmagnetリンクは書かないから各自ググって欲しい。
結構誤解されがちなことだが流出データ50GBを全部ダウンロードする必要は無い。
必要なファイルはanimefull-final-prunedディレクトリの中身とanimevae.ptだから5GBちょっとくらいなんじゃないかな。
もし余裕があるならmoduleディレクトリの中身もダウンロードすればいいけど、ぶっちゃけ必要無いんじゃないか?
まずはanimefull-final-prunedの中身のファイルをリネーム。
「model.ckpt」を「animefinal-full-pruned.ckpt」のようなわかりやすい名前にして、
「animevae.pt」を例えば「animefinal-full-pruned.vae.pt」のような拡張子以外は同じファイル名にする。
WebUI起動フォルダ配下の\models\Stable-diffusionにリネームしたファイルを移動させれば配置はOK。
ちなみにmoduleディレクトリの中身は\models\hypernetworksに移動させて使う。
それらのファイルを設定で適用させると画風が結構変わるがNovelAI再現とは関係無いみたいだ。
(追記)moduleディレクトリの中身の.ptファイルはhypernetworksという技術によって画風などを学習したものらしい。
すでに複数のイラストレーターの画風を学習したptファイルが作成されており議論を呼んでいる。
自分のグラボのVRAMが4GB未満の場合は「set COMMANDLINE_ARGS=」の後に
4GB未満の場合は「--medvram」、2GB未満の場合は「--lowvram」とパラメータを追加しておこう。
自分の持ってるグラボのVRAMがわからないときはGPU-Zなどで調べよう。
またGTX1600系固有のバグ(単色の画像が出力される)があるらしいので
その場合は「--no-half-vae」もしくは「--no-half」や「--precision full」とパラメータを追加。
ちなみにパラメータに「--xformers」を追加してxformersを導入・使用すると
消費VRAMが減って画像生成処理時間も短縮されるので是非導入しよう。
画像からdanbooruのタグをAIで調査するdeepdanbooruを利用する場合は「--deepdanbooru」を追加。
のようになる。
ターミナルやPowerShellなどでwebui-user.batを起動しwebUIの初期導入と起動を行う。
過去には手動でCUDA等を導入する必要があったが、現在はこの初期導入でだいたいの導入が行われる。
ずいぶん楽にはなったがその分初期導入の時間は結構長い。10分~20分くらいかかるかもしれない。
途中で導入処理がエラーで止まってしまった場合は管理者権限で実行するなどして対応して欲しい。
起動ができたらSettingで以下の設定を変更してNovelAIに近づける。
Stop At last layers of CLIP modelを2に、
Eta noise seed deltaを31337にする。
これで設定は完了!
設定を合わせて完全にNovelAIと同じ内容になったのかを確認するテストがある。
出力結果から海外じゃHallo Asuka Testなんて呼ばれている。
これは初期SEEDをはじめとする設定内容が完全に一致していれば同じ出力結果を得られる仕組みを利用している。
プロンプトの内容:masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
ネガティブプロンプトの内容:lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
https://i.imgur.com/Bfl5qJB.jpg
なお、このテストはAUTOMATIC1111のバージョンやxformersの適用状態によっては微妙に違う画像が出力されることがあるらしい。
xformersを適用させている増田の環境だと確かに二つ並べると間違い探しレベルの違いがあった。
「Booru tag autocompletion for A1111」を導入すればNovelAIのように自動でdanbooruのタグを保管してくれる。
画像生成AIモデルはStable DiffusionがOSSのため派生が結構多い。
自前で追加学習もできるため自前で学習した追加AIモデルを4chanのような掲示板などで共有する人もいるらしい。
しかしそのようなモデルの中にウィルスのような悪意のある動作を行うものもあるらしい。
FBIがペドフィリアを一網打尽にするためにIPアドレスなどの個人情報を抜き出す動作を行うロリ特化AIモデルを掲示板で配布していて
しかもそれには本物の児童ポルノが教師データとして使われている…などという都市伝説的な話が今界隈を賑わせている。
メモリ :4GB
記録域:eMMC 64GB
OS :Windows 10 Pro 64bit
重量 :1.3kg
ぼろぼろに叩かれてるが、これ、4コアなんでそこそこ動くぞ
N4000は2コア/2スレなんで論外だけどな
メモリ4GBは厳しいが、価格帯5万だと各社がメモリ4GBオンボードのPC売ってる
アイリスオーヤマだけじゃない
DELLの例
New Inspiron 15 3000 (3502) エントリー:税抜き40,980-
メモリ :4GB
記録域:SATA 1TB
重量 :1.77 kg
New Inspiron 15 3000 (3501) スタンダードプラス:税抜き58,980-
メモリ :4GB
記録域:SATA 1TB
重量 :1.77 kg
アイリスのeMMC 64GBとメモリ4GBの合わせ技は結構えぐいが、「データはUSBで持ちましょう」みたいな運用も可能だろう。
どいつもこいつも、ドヤ顔で貶してて、最近の市場知らんのか?とか思ってしまう
いやいや、その価格帯なら「正解」だろ
PS5が故障しまくりって評判が出ていてなんか中古市場や転売市場が大荒れのようなので調べてみた。一応私見レベル。
今回はPS5の分解映像や動画が数多く出ているからXBOXの設計思想と見比べると、確かにこりゃ故障するわって内容だった。
根本的な原因は、旧世代のゲームハードと比較すると熱源が一気に増えたにつきる。
PS5の熱源は次の5種類
④GDDR6メモリが高温
⑤電源ユニットの冷却不全
①は従来から発熱対象であり、しっかり対策が取られている。 だが②については増加温度に対応できているとは言い難い。
問題は③以降のメモリ系発熱で、特に超高速なSSDを搭載するPS5はその発熱も無視できない。高速通信で常時ストリーミングなんてやればSSDの温度だって70度前後にはなってしまう。
そのためSSDにはヒートシンクを搭載して、排熱を行っているのだが、PS5はヒートシンクはあくまでCPUにつけられていて、メモリ回りの排熱系にはスチールプレートでの排熱で対応している。
さらにGDDR6はCPUの裏に設置してあり、どう見ても温度の影響を受けやすいのだがこれまたスチールプレートでの冷却が図られている。一応メモリからスチールプレートへの熱伝導性向上のために
グリスが塗られているのだが両面基盤の表裏が両方熱源で、CPU側だけにファンがある状態でまともに冷えるかって言われたら。 後はわかるな。
⑤オーバークロックすれば、高電圧が必要で電源ユニットもXBOXよりも高容量を突っ込んでいるけど、個体差とはいえコイル泣きが起きている時点で相当あっぷあっぷなんだろうなと。
その証拠にコントローラー充電系は変な制御がかかっている。コントローラー充電は別コンセントでやったほうがいいだろうと思う。電池あまりもたんのに。
しかもオーバークロックしている割にコンデンサが周りが貧弱なのよね。いや普通のコンシューマーハードなら十分なのだけど、オーバークロックはやっぱり駄目だ。
で、これどうやったら治るんだろう。
昨日午前2時頃に大型アップデート1.4が実施されたテラリア。
そうなると出てくるのが「CS版ではいつプレイできるんですかね」って層。
ドット絵で作られて激しい物理演算もしないので下手したら最近のPCならオンボードでもプレイできるレベルで軽量。
OS: Windows Xp, Vista, 7, 8/8.1, 10
Memory: 2.5GB
Hard Disk Space: 200MB
Video Card: 128mb Video Memory, capable of Shader Model 2.0+
3Dばりばりで最低でもミドルエンドなPCじゃないとプレイできないレベルならPC買えない人がCS版をやっててもおかしい話ではないが、2~3万ぐらいで買えるパソコンでも十分動く。
それに比べてCS版はDL販売でも(プラットフォームによって上下するがだいたい)3,000円ぐらい
自分もPS3、PS4、Vita、WiiU、Switchと5本CS版を買ってる 何のために買ってるかというと友人に布教するためである
まずはCS版でテラリアを知ってもらい 今回みたいなアプデでPC版に人を引き込むってことをひたすらしている
おあつらえ向きに4パックという4人で買えばもっとお得なのもある これにセールが重なって一人あたり実質200円もしないぐらいでプレイできたりもする
てか今回も前回余った2ギフトをSwitch版で知り合った友人に譲った
どう考えてもCS版に値段面で勝てる要素はない
金銭面の事情はほとんどPC版が勝ってると思うんだけど、それでもなお「CS版のアプデ」を待ち続けてる人ってスパチュンの信者ぐらいしかありえなくないか。
親戚が置いていったのを借りて遊んだ。キノピオが扱いやすくて好きだった。
SFCの楽しさを知ったのでブックオフで買ってもらった。当時は確かスペシャルコースで挫折したが、後にリメイク版(GBA)で裏世界到達を果たして満足し、カートリッジをステージ中央に置いて引退。
「ロクヨン」というやつが面白いと聞いてクリスマスに買ってもらう。(トイザらス限定の金色)
当時小学校の近くに住んでおり、「スマブラ」があると聞きつけた同級生たちが連日押し掛け、人生の絶頂期を迎える。
同年、ゲームボーイカラーとポケモン金に出会い、ビデオゲーム好きを決定づけられる。相棒オーダイルの背中に乗って旅する夢を見る。
その後、銀・クリスタル・赤・ピカチュウとプレイして金のポケモン図鑑をコンプリート。
ドラゴンクエストⅠ・Ⅱ
ファンタジーの高揚感と旅の寂寥感を知る。ロンダルキアの雪原でアークデーモンと対峙する夢を見る。
あまりにもハマりすぎたためある日親がブチ切れ、ビデオゲームの類はすべて鍵付きトランクに収監、プレイも土日のみに制限され、スマブラ目当ての同級生たちも遠ざかり、人生の絶頂期が早くも終焉。
念願の「スマブラDX」を買ってもらうも、既に非社交性を存分に発揮していたため64時代の栄光を取り戻すことかなわず。
加えて、ある日帰宅するとビデオゲームが全てブックオフに売却されており、その夜焼肉に連れて行かれた。母は「ゲームを売ったお金よ」と言ったが、あれが事実なのか質の悪いジョークなのかは未だに分からない。泣きながら口に押し込んだタン塩はどこか塩辛く、しかし胃袋は正直であった。
(追記)
上記の事件は私が「ゲームは土日のみ」という約束を破り、トランクの鍵をハックしてこっそり遊んでたことが発覚したせいなので、普通に私が100%、いや99%悪いです。あと親子仲は普通に良いです。
このブックオフ焼肉事変の影響で「時のオカリナ」「ムジュラの仮面」「マリオ64」「バテン・カイトス」など任天堂据え置き機の名作をプレイする機会を失ったのが個人的にコンプレックスになっている。Switchにバーチャルコンソールはよ(今ややる時間がない)
2003~2008年
中高時代、懲りずにお小遣いを貯めてこっそりゲームボーイアドバンスSP(名機)を購入。買い漁った中古ソフトを、バックライトの恩恵にあずかって布団に隠れてプレイし、ド近眼になる。ファミコンミニシリーズでレトロゲームにも触れる(初代ゼルダ、スーパーマリオブラザーズetc)。
大学受験日程を全て消化した瞬間、ニンテンドーDS Liteとポケモンプラチナを購入し欲望のままに徹夜プレイ。DS版クロノトリガーに大感激してゲーム音楽に目覚め、光田康典繋がりでソーマブリンガーをプレイし、DS版ドラクエ5でデボラ派に鞍替えする。
初めてのソニー機・PSPとMHP2Gを購入。大剣太刀片手剣を1000時間振り回し無事留年。
この頃ニコニコ動画でThe Elder Scrolls 4: Oblivionの存在を知る。PC洋ゲーとのほぼファーストコンタクト。初めての日本語化・初めてのmod導入(受験英語でもそこそこちゃんと勉強していた過去の自分に感謝)、初めてのオープンワールドRPG。RAM4GBオンボード最低画質でも20FPS前後だったのにようやってたなほんとに。
Fallout3もプレイし、Bethesda神とHavok神への信仰心を獲得する。
ゲーミングPCへの憧れを抱く。
ゼノブレイドの評判を聞きつけてWiiを購入。ダンバンのあまりのかっこよさにJRPG熱が再燃する。
この頃から心身を病みビデオゲームから離れたため、Wii UやPS3の流行に乗れず、第2のコンプレックスを抱える。
精神に凪が訪れ、Newニンテンドー3DSLLを購入しポケモンやモンハンを一通りプレイするも、さすがにもう限度を弁えていたため事なきを得る。
なんやかんやあって卒業・就職し初任給を全額はたいてBTOゲーミングPCを買うも、なぜか初任給がなくなってしまったのでPCを抱いたまま餓死しかける。
最高画質modマシマシでTES4やFallout3を遊び直したり、
帰宅後の限られた時間でも遊べるインディーゲームを買い集める。
Nintendo Switch購入。ゼルダの伝説 ブレス オブ ザ ワイルドにドハマりし、続けてスプラトゥーン2にドハマりする。プライムデュアル時々スシコラ洗濯機。
Steam、Origin、Uplay、Nintendo Switch、PS4 Proその他諸々に囲まれてあへあへ積みゲーオタクなう
―――――――――――――――