はてなキーワード: スイートとは
名付けて『手巻き生春巻き』
包丁不要。ガスも不要。時間がかからず器があれば作れて洗い物も少なく、しかも飽きが来なくて美味しくて栄養もありカロリーは低い(多分)。
■用意する物
以上。
■レシピ
・1を拡げる。
・2〜4を好きなだけ乗せる。
・巻く
・5を付けながら食べる
※乗せるものは、好きにアレンジして良い。個人的にはパクチーが好きだが、好みの分かれる野菜なのでレシピから除外した。
牛焼き肉とマヨネーズを巻くと完全にケバブと化してしまうので注意。(別にケバブでも構わない人は止めはしないけど)
5は万能調味料でありかつ『みそ』というのは食事の満足感を爆上げするので個人的にはマストアイテムだが、これも好みの問題なので、別に他のでも良い。
東南アジア系を狙うならスイートチリソース、中南米を狙うならサルサソースでも良いだろう。
他、マヨネーズやタルタルソース、シーザーサラダドレッシング等も合う。
春巻きの皮なんて1枚30kcalかそこらである。普通に考えて恵方巻きサイズの太春巻きを5個も6個も食べられるわけないので、春巻きの皮のカロリーはせいぜい100kcalかそこら。
野菜をガンガン摂れるので、ソース取り過ぎによるの塩分やカロリーに気を付ければ、3食のうち最低1食はもうこれだけで良い感じである。(ビタミンとタンパク質にやや難があるか?まあ、それと巻くもの次第だが。)
土曜日に4回目観てきたやで。
今回は日本語字幕付きの回。でも「字幕があることによって新たに気づいたこと」みたいなのは特になかった……あ、でもスイートバレットのライブの1曲目(ミューズになっちゃう)の歌詞も字幕が出てたんで「へ~、こういう歌詞だったのか…」ってなった(2曲目の「オトメノート」は咲太と花楓の会話のバックでほとんど聞こえないので恩恵は皆無だったが…)。あと、(当然といえば当然だが)『花楓』と『かえで』の書き分けもちゃんとできてた。
4回目ともなると流石に感動や衝撃の大きさは1回目や2回目ほど大きくはないんだけど、全然飽きない。なんかもう、「観に行く」というより「花楓に会いに行く」みたいな……気持ち悪いな! でも本当にそういう感覚なんだよな…。
前回の劇場版(ゆめみる少女の夢を見ない)は5週目の来場者特典(1週目特典の小説の電子書籍版DLコード)が最後だったから、おでかけシスターもそろそろ終映なのかな…。(とか思ってたら、5週目の特典が公開された。DLコードじゃないけど……6週目の特典になるのか? それとも、今回はDLコードなし…?)
終映になったら、少なくとも数ヶ月はこの作品を観ることができない……悲しい。BDが出るまでどうやって過ごせばいいのか…。TVシリーズ~ゆめみる少女のマラソンを繰り返すとか、原作を読み進めるとか……あと、藤沢に聖地巡礼ができたらいいな…。
「ゆめみる少女」は劇場公開から約5ヶ月後にBDが発売されたから、今回もそうだとすると11月ごろ…? 「ランドセルガール」の公開日が12月1日に決定したから、その直前に発売というのはありそうではある。ただ、「おでかけシスターとランドセルガールの2作をセットにして同時発売」みたいな展開の可能性もゼロではない。そうなると「ランドセルガール」公開の5ヶ月後とかか……グエー。
前読んだ時もイライラした気がするけど
再読してやっぱりイライラするわ
なんでかな
視点的には小夜側が一番しっくりくる、が善人ポーズが板についてて鼻につく
りんごは衝動的過ぎていつも酔っ払ってるかのようなテンションで、部分的に共感するもアホの子にしか見えない
心は主人公として心情説明も多いけど、どっちつかずな態度がイライラする
まあ大学生くらいのママゴト恋愛を真面目に描いたらこんなもんなんだろう
作者の別の作品読んだら、名前が違うだけで同じキャラクターの構成だった
真面目賢い系彼氏、真面目賢い系彼女のそばに、頭足りない系ゆるふわ彼女、で実は真面目彼氏は実はゆるふわと出来てる、と
類似作を読んだところ承認欲求とマウントを恋愛に絡めただけの話っぽい
あまりにも浅はか
良いですか。落ち着いて聞いてください。
ファン「はよ出せや!」
ファン「はよ出ろや!」
ファン「はよ聞けや!」
https://twitter.com/diver_down_fly/status/1675331532221988865
殺したのはマスコミです。
誰も警察に訴えない。
証拠がない。
それは冤罪です。
「ジャニーさんのひざの上に乗って耳舐めなきゃだめだよ」“ジャニー性被害”を26年前に告白した元アイドル・豊川誕が明かす《芸能界の悪習》と《ジュリー社長への願い》
#文春オンライン
この方も覚醒剤などに手をだしてお金に困ってあの鹿砦社から暴露本を出したけど、克服したあとジャニーズ事務所に謝罪されたり、北公次氏の名前で暴露本を出させた村西監督に怒っていましたよね。不思議です。
被害にあったときの部屋がどうだったかで議論になってるけど、それはどっちが悪いとかじゃなくて、きちんと告発側や報道側がきちんと伝えるべきことでしょ。
被害内容はやたら誇張した比喩的な表現を使うのに、証拠となりうる日時や場所は最初の報道(文春記事)から一切の進展なし。
ふつう、時効が過ぎてるなら、なんとかして信用してもらおうと、そのあたりは被害内容よりも優先して伝えると思うけどね。
あと間違っていたなら必ず謝罪すること!
そこでちらつくのが飯島三智です。
その気配がある。
当時、ジャニーズ事務所の中では「ジュリー派」と「飯島派」という二大派閥が角逐し、その派閥トップのどちらかがジャニー社長の後継者に選ばれるのだろうという見立てがマスコミ業界の常識だった。その二大派閥の領袖は、メリー氏の長女である藤島ジュリー景子氏と、実力派マネジャーの飯島三智氏であった。ジュリー氏は嵐やTOKIO、関ジャニ∞といった主流派を担当。一方の飯島氏はSMAP。当初は“ジャニーズの落ちこぼれ”と言われた彼らの名声を高からしめ、国民的スターに育てた赫々たる功績があった。
叩かれているのが嵐ですね。
https://news.yahoo.co.jp/articles/4923ac36017824a3b8be010506384d77a9e0be56
それか強請られているのだろう
失せろ。
この批判がまさにそうなのだが、どうもわれわれ日本人は「ChatGPTが一番苦手なこと(≒自分が知らないことを教えてもらう)にChatGPTを使おうとする」という傾向があるらしい。日本の経営者に聞いたChatGPTの使い道のアンケートでは、「仕事で調べものをする時に活用する」が39.3%でトップだ。これが米国の職場でのChatGPT利用法の調査だと、上から順に、
となっていて、情報検索や調べもののタスクは上位5位に入っていない。総じて米国の働き手は、ChatGPTを自分に情報をインプットするためのツールではなく、自分が他人に情報をアウトプットするためのツールととらえている。
深津氏も折に触れて言っていることだが、生成AIは元々「文章の続きを書くAI」であり、それがスケーリング則によって多くの拡張的能力を獲得したものだ。だから一番得意なのは、「プロンプトで与えたテキストを指示通りに加工すること」(校正・要約・分類・翻訳など)と「プロンプトで与えた指示によって、新たにテキストを作り出すこと」(作文・提案・問題作成・コード作成・ロールプレイなど)だ。元々そのようなことを実行するための仕組みなのだから、ここがスイートスポットになるのは当たり前だ。少し触ってみて、何ならうまくいくのか、何だとうまくいかないかを自分なりに検証して結果を見れば、今のChatGPTはテキスト加工器・テキスト生成器として使うのが一番いいということがすぐわかるはずだ。増田自身も
と書いている。その通り。そこが一番使える用途なのだ。つまり元増田も、体感的にはそれがChatGPTの一番得意なことで、情報検索は不得手だとわかっているのに、不得意なことをバリバリやらせて、その結果に失望している。GPT-3やGPT-4は「2021年9月以後の情報は持たない」と折に触れて回答してくるのにも関わらず、生成AIのハルシネーション問題がこれだけ広く注意喚起されているのにも関わらず、それを調べものに使って勝手にガッカリしているのである。
これは元増田だけではない。自分の周囲にも、同じことをやって同じようにガッカリしている連中がたくさんいる。おれは、これが日本人が文化的・歴史的に〈ファンタジーとしての汎用人工知能(AGI)〉に馴染みがありすぎるせいなのではないかと思っている。自律思考型のロボットやアンドロイドが登場する数々の創作に触れ続けたことで、我々には「思考能力を持つ、優れたAI」というものの存在が、脳内に〈リアリティある未来〉としてインストールされている。だから、おれたち日本人は、「AIと対話的なテキストコミュニケーションができる」となった瞬間、その対象に一定の知性を仮定してしまう(これはもちろん、ANI(特化型人工知能)にすぎない今の基盤モデルに対しては、高すぎる期待だ)。そして自分の知りたいことを問いかけては、的外れな答えが返ってくることに失望し嫌悪する。これは「知性のようなものが、実際はそうでなかった」ことに対する、一種の「不気味の谷」反応だ。
上のサーベイで取り上げたアメリカ人のChatGPTの使い方を見ると、彼らが全くそんな幻想を持っていないのがわかる。これはキリスト教圏における、おそらくは宗教的タブーに紐づいた、人間/非人間のあいだに設定された懸隔の大きさと無縁ではないだろう。彼らは、人間以外の存在には軽々しく知性を見出さず、あくまで〈道具として〉ChatGPTを使役する。だから回答の正否を自分で判断できないようなことは聞かない。テキストの加工器として、あるいはアイディアの生成器として使うだけだ。生成された結果の善し悪しは自分が評価し、使うか使わないかを判断すればよい。そういう道具を使って、作業時間を大幅に短縮しつつアウトプットを仕上げる。そのような使い方が、今のところはChatGPTや生成AIの用法のベストプラクティスということになるだろう。
そのことは、マイクロソフトの365 Copilot実装のデモ動画を見てもわかる。スピーカーは、人間が操縦士であり、Copilot(GPT-4ベースのChatGPTの兄弟)はその名の通り副操縦士だとして、両者の主従関係を繰り返しアピールする。Copilotは忠実な僕として、人間がプロンプトで指示したことをやる。娘の卒業パーティのために会場の予約メールから情報を抽出し、友人達に送る招待メールの文面を書き、OneDriveから写真を引っ張り出して、指定したトーン&マナーでパワポを作成し、画像を生成し、アニメをつける。Wordでスピーチの文案を作らせ、みんなから戻ってきたエピソードを適度に切り貼りさせる。あるいは職場で、商談相手に向けたWordドキュメントを補完させ、それをPowerPointにコンバートさせる。Excelで昨期の売上低下要因について考えられる候補をいくつか出させ、そのひとつを掘り下げて分析させ、ボトルネック要素を改善した場合の予測をさせる。
これだけてんこ盛りのタスクショーケースの中に、「ローカル側にデータが存在しないことに関する情報検索・調べもの」が入っていないのがわかるだろうか。つまり、生成AIというのはそういう使い方をするものではない、という話なのだ。
確かにBingは出典リンク付きで答を返してくるが、これはGPTのような基盤モデルにとってはあくまで余技の類だ。本来一番得意な「生成」の能力を制約しつつ、リアルタイムブラウジングの機能を持たせた結果、何とかそのように動作するのであって、逆にBingやperplexity.aiはテキスト生成・加工がめちゃくちゃ苦手だ。つまり「正確な情報を返すこと」と「新たなコンテンツを生成すること」は、現状の生成AIにおいては相反する要請だ。どちらかを重視するなら、それが得意なAIにやらせればよい。
ChatGPTを調べものに使って文句を言うやつは、裁ちばさみで鼻毛を切ろうとしていることに気がついてほしい。とにかくおれたちはアトム幻想を一旦捨てなければならない。生成AIは、知性ではなく道具だ。道具だから、お前が使った通りに動作する。動作結果に不満があるなら、用途が間違っているか、指示が間違っているか、その両方だ。
https://arxiv.org/pdf/2304.10466.pdf
試行錯誤によって方針を学習する深層強化学習アルゴリズムは、環境と積極的に相互作用することによって収集された限られた量のデータから学習しなければならない。多くの先行研究が、データ効率の良いRLを実現するためには適切な正則化技術が重要であることを示していますが、データ効率の良いRLにおけるボトルネックの一般的な理解は不明なままでした。その結果、すべての領域でうまく機能する普遍的な技術を考案することは困難であった。
本論文では、非定常性、過剰な行動分布シフト、オーバーフィッティングなどのいくつかの潜在的な仮説を検討することにより、サンプル効率的な深層RLの主要なボトルネックを理解することを試みている。
強化学習ってよく知らない
我々は、状態ベースのDeepMind control suite(DMC)タスクについて、制御された体系的な方法で徹底的な実証分析を行い、遷移の検証セットにおける高い時間差(TD)誤差が、深いRLアルゴリズムの性能に深刻な影響を与える主犯であり、良い性能をもたらす先行手法は、実際、検証TD誤差を低く制御することを示した。この観察から、ディープRLを効率化するための強固な原理が得られる。すなわち、教師あり学習の正則化技術を利用することで、検証TD誤差をヒルクライムできる。
誤差を減らすのがDeepLearningだけど、それが時間差なのか。
我々は、検証TD誤差をターゲットとするシンプルなオンラインモデル選択法が、状態ベースのDMCとGymタスクにおいて効果的であることを示す。
1 はじめに
強化学習(RL)法は、大容量の深層ニューラルネット関数近似器と組み合わせた場合、ロボット操作などのドメインで有望視されている(Andrychowicz et al、
2020)、チップ配置(Mirhoseini et al.、2020)、ゲーム(Silver et al.、2016)、データセンターの冷却(Lazic et al.、2018)。アクティブなオンラインデータ収集の単位ごとに費用が発生するため(例.
実際のロボットを動かす、シミュレーションによるチップ評価など)、限られた経験量でも効率的に学習できる、サンプル効率の良い深層RLアルゴリズムを開発することが重要である。このような効率的なRLアルゴリズムの考案が、近年の重要な研究課題となっています(Janner et al、
2019; Chen et al., 2021; Hiraoka et al., 2021)。
原理的には、オフポリシーRL法(例えば、SAC (Haarnoja et al., 2018), TD3 (Fujimoto et al., 2018), Rainbow (Hessel et al., 2018))は、データ収集のステップごとに多くの勾配ステップのポリシーと値関数を改善することを可能にするため、良いサンプル効率が得られるはずです。しかし、このメリットは実際には実現できないようで、1回の学習ステップを多く取りすぎることでを収集した各遷移は、多くの環境において実際にパフォーマンスを害する。過大評価(Thrun & Schwartz, 1993; Fujimoto et al., 2018)といったいくつかの仮説、非定常性(Lyle ら、2022)、またはオーバーフィッティング(Nikishinら、2022)が根本的な原因として提案されている。
これらの仮説に基づき、より多くの勾配ステップを持つオフポリシーRLを可能にする方法として、モデルベースのデータ増強(Jannerら、2019)、アンサンブルの使用(Chenら、2021)、ネットワークの正則化(Hiraokaら、2021)、再生バッファを維持しながらRLエージェントをゼロから定期的にリセット(Nikishinら、2022)などのいくつかの緩和戦略が提案されている。これらのアプローチはそれぞれサンプル効率を大幅に向上させるが、これらの修正の有効性は(これから示すように)タスクに大きく依存する可能性があり、根本的な問題やこれらの手法の挙動を理解することはまだ未解決である。
ICLR 2023で会議論文として発表 本論文では、より多くの勾配ステップを取ることが深層RLアルゴリズムの性能悪化につながる理由、ヒューリスティック戦略が役立つ場合がある理由、そしてこの課題をより原理的かつ直接的な方法で軽減する方法を理解しようとするものである。
最近提案されたタンデム学習パラダイム(Ostrovski et al., 2021)を用いた実証分析を通じて、TD学習アルゴリズムは、学習の初期段階において、すぐに高い検証時間差(TD)誤差(すなわち、保留した検証セットにおけるQ-ネットワークとブートストラップターゲットの間の誤差)を得る傾向にあり、悪い最終解をもたらすことを明らかにする。
このホワイト ペーパーでは、深い RL アルゴリズムで勾配ステップを増やすとパフォーマンスが低下する理由、場合によってはヒューリスティック戦略が役立つ理由、およびこの課題をより原則的かつ直接的な方法で軽減する方法を理解しようとします。 最近提案されたタンデム学習パラダイム (Ostrovski et al., 2021) を使用した実証分析を通じて、トレーニングの初期段階で、TD 学習アルゴリズムが高い検証時間差を迅速に取得する傾向があることを示します。
(TD) エラー (つまり、保留された検証セットでの Q ネットワークとブートストラップ ターゲットとの間のエラー) が発生し、最終的なソリューションが悪化します。 さらに、データ効率の高い RL 設定のために考案された多くの既存の方法が、検証 TD エラーを低く制御する限り有効であることを示します。
この洞察は、深い RL を効率的にするための堅牢な原則を提供します。データ効率を向上させるために、検証 TD エラーを山登りすることによって、特定の問題に最も適した正則化を選択するだけです。
この原則は、オンラインRLトレーニングの過程で特定のタスクに最適な正則化戦略を自動的に発見しようとする単純なオンラインモデル選択方法の形で実現され、これを検証TDエラーを使用した自動モデル選択(AVTD)と呼びます。
AVTD は、各エージェントが異なる正則化を適用する共有リプレイ バッファーで、いくつかのオフポリシー RL エージェントをトレーニングします。 次に、AVTD は、環境内で動作するための検証 TD エラーが最小のエージェントを動的に選択します。
この単純な戦略だけでも、多くの場合、さまざまな Gym および DeepMind コントロール スイート (DMC) タスクで個々の正則化スキームと同様のパフォーマンスを発揮するか、それを上回ることがわかります。 重要なのは、パフォーマンスがドメイン間で大幅に異なる可能性がある以前の正則化方法とは異なり、私たちのアプローチはすべてのドメインで堅牢に動作することに注意してください。
要約すると、私たちの最初の貢献は、サンプル効率の高いディープ RL のボトルネックの実証分析です。 これらの課題の背後にあるいくつかの潜在的な説明を厳密に評価し、トレーニングの初期段階で高い検証 TD エラーを取得することが、データ効率の高いディープ RL のパフォーマンスを阻害する最大の原因の 1 つであることを観察します。 私たちの 2 番目の貢献は、単純なアクティブ モデル選択法 (AVTD) です。これは、検証 TD エラーの山登りによって正則化スキームを自動的に選択しようとします。 多くの場合、私たちの方法は、さまざまな Gym および DMC タスクで、最適な個々の正則化スキームに匹敵するか、それを上回ります。
「ふはは、見たか。俺が奴らをパクるまでもなく、奴が俺をパクりやがった。ホ○ケン最高」
悪魔崇拝者のタカシは、今日も悪魔を崇拝した罰として地獄ツアーを100周した。その上での発言がこれである。
ハナコちゃんはタカシにいやらしい質問があるらしい。タカシが聞かない理由はない。
タカシは吠えた。
「はい♡」
アホくさ...とタカシの守護妖精ジェニファーは言いたかった。だが、悪魔崇拝者に絡むとろくなことが起きないので、タカシから数光年の距離を置いたのだった。
「質問ですが、私たちの目の前にこの魔界の扉があるでしょう?その先には何があるんです?」
「そんなの君が生まれるよりも前から決まってることでしょ。全自動の世界生産工場だよ」
ハナコちゃんはちょっと驚いた。なぜなら、その先にあるのは間違いなく便所だと思っていたからだ。
タカシはハナコちゃんをファッ○できる回数のカウントを指で「はい♡」と示した後、説明をした。
その中では、無限とも言えるほど膨大な種類の生物が、想像を超えるようなあらゆる方法で交尾をしていた。
「キャー!」
とタカシが突っ込んだが、ハナコちゃんは魔法使いなので、アバダケダブラの呪文を唱えてタヒぬと、上からハナコちゃん第二号が落ちてきた。
とその時だった、生物の中から見たことのある生物がスタスタと駆けてきた。
「どうも、アンダーソンです。マ○リックスに飽きたからここにやってきたんだ。すごい場所だよ」
「ハナコちゃん、説明しよう。こちらはあの有名なアンダーソン君だ。挨拶しなさい」
「どうも、アンダーソンさん、ハナコです。なぜ扉から出てきたんですか?」
アンダーソンは答える。
「僕は人間と交尾するのが飽きたのだ。マ○リックスじゃ、操り人間共をプログラムしてファッ○するなんて簡単だからね。でも、こうやって人知を超える存在と交尾する場所にやってきたようなんだ。ザ○オンにはマ○リックスをシミュレートする機械があるが、ここはちょっとどういう世界なのか実は全くわからない。迷い込んだ先がバラ色だったという話さ。」
「はーい♡3回目!では説明するよ。例えば、あそこに象と芋虫を合わせたような生物がいて、これを仮にポチ君と呼ぼう。ポチくんは、あのトマトと人間のオスを合わせたような生物、つまりタマちゃんと交尾しているだろう?こうやって受精してできた存在が、ザ○オンさ。」
「なるほど、ポチタマね。幼稚園児にもわかる科学ね。算数より簡単ね。」
とハナコは冷静に答えた。
「ど、どういうことだ、僕らのザ○オンが、あの生物の受精の結果だと言うのかい?」
アンダーソン君は不安そうに、おしっこちびりながらタカシを見つめた。
「そうだよ。そして、アンダーソン君はさっきあの豚と蜂を合わせたようなメスをファッ○してただろ。そうして生まれる存在が、ドラゴ○ボールの世界だよ。」
「あらやだ、タカシさん素敵♡」と、アンダーソン君とハナコちゃんはハモりながら同時に言った。
「はい♡」
アンダーソン君とハナコちゃんはパンツを脱ぎ捨て、四つんばいで尻を向けた。そして、タカシはウィンガーディアムレ○ィオーサを唱えると、2人に分身した。
「さあ、挿れるぞ...」
2人のタカシは同時に挿入した。
「おらおら、馬のように暴れろ!」
東京に家族旅行して、子供を遊ばせる場所がお台場・晴海ばかりだったので、お台場近辺で一番安いホテルに泊まったの。
それでも素泊まり1泊1人1万円して「高いな~」と思ったけど、思い切ったの。
ビッグサイトとフジテレビのちょうど中間あたりにある、ホテルトラスティ東京ベイサイドてホテル。
羽田空港からりんかい線に乗り換えて、国際展示場駅で降りて、まるで公園みたいなだだっぴろい通路(公園なのか?)をテクテク歩いてホテルに向かうと、高い2本のビル。
さすが素泊まり1万円だな~と思いながら近くまで行くと、立派な大きな門があり、ビシッと制服を着こんだ門番係までいる。
すげー、高級ホテルじゃん。
門からは何千万円しそうな車高の低いスポーツカーが出てきた。フェラーリのランボルギーニてやつだったのかしらん?
1万円のホテルでフェラーリ?超高級ホテルなのに1万円ならお得だったな、と思いながら門番に「ここがトラスティですか」と聞くと、「トラスティはお隣になります」と。
2本のビルの根元にへばりついたような4階建てのホテルで、それなりに高級感はあって1万円でも納得できる部屋ではあったんだが。
東京を楽しんで地元に帰り、隣のホテルはなんだったんだろうとグーグルマップをみると、東京ベイコートクラブという会員制の高級リゾートホテルじゃった。
会員権を得るのに1000万円~3500万円かかり、年会費も年30万かかり、さらに一泊数万円の料金を払わんといけない。
誰が泊まるんだこんなホテル、と思ったが、グーグルマップの口コミを見ると、ふつーに「家族連れで泊まりました、まあまあでした」みたいな口コミとともに、
これまで見たこともないような、私らが泊まった隣のホテルとは別世界の広い部屋(地元ホテルのスイートより広いよ)、豪華な調度品の写真の数々が投稿されていた。
食事の口コミも「まあまあだが、この値段なら妥当かな」的な。一食数万円で。
いやー、こんな金持ちの世界って漫画やドラマでしか見たことなかったけど、いるところにはいるもんだね!
普段は隔絶された別世界で全く接点がないから意識してないけど、けっこうな数が生息してるんだね。
一食数万円の食事して「値段のわりに良い」みたいな感覚、想像できないんだけど、いるんだね。
たまたま偶然そんな世界の一端を見てしまって、自分はこれまで親が地元市の副市長だったり、自身と夫も日本平均くらい稼ぐサラリーマンで世帯年収は1000万超えてたりで、日本で中の上くらいにいる自意識だったけど、そんなの田舎の胃の中の蛙で、東京には自分らとは隔絶された上流の世界が広がってるんだなと、打ちのめされてしまった。
副市長ってそれなりの立場かと思ってたけど、所詮は安月給で使われる庶民(奴隷)の日常生活を管理する勤労者、囚人の牢名主みたいなもので、本当の金持ちは勤務時間や行政なんかに縛られずに生活して不労所得を得てるんだろうね。
と、旅行から帰ってきてからずっと「金持ち爆発しろ」「共産革命起こっていいぞ~」と劣等感からの汚い感情が頭の中でグルグルしてるので吐き出してみた。
あーすっきりした
ワイ
GPT-4
はい、日本の47都道府県それぞれの名産品を教えます。以下は、各都道府県の名産品の一例です。
北海道:海産物(ズワイガニ、ホタテ、ウニなど)、ラベンダー、ジンギスカン(羊肉の焼肉)
(22番目の静岡で止まったのでリトライしたら、今度は17番目で止まった)
(Regenerate responseを実行)
北海道:ジンギスカン、海鮮、牛乳、バター、クリーム、スイートコーン
秋田県:きりたんぽ鍋、稲庭うどん、なまはげ、秋田杉、きんかん
福島県:ふくしま和牛、ふくしまのもも、会津蕎麦、猪苗代湖、大内宿
栃木県:とちおとめ、うつぼやき、宇都宮餃子、塩釜あんかけ焼そば、日光東照宮
群馬県:赤城そば、焼きまんじゅう、草津温泉、おはぎ、みそ漬け
埼玉県:川越だんご、とんかつ、草加せんべい、熊谷うどん、秩父神社
千葉県:アンコウ鍋、佐原の町並み、烏賊の塩辛、あんぱん、餃子
新潟県:越後ぶらぶら茶、胎内の滝、いわしのなめろう、笹団子、上越地鶏
その前身であるマックチキンをも含めれば通算で100個は食べたと思う。
10年ほど前にマックポークが廃止されたときに、チキンクリスプが入れ替わるように100円マックとして登場した記憶がある。
マックポークというたったの100円で食べられるジェネリックてりやきバーガーがなくなったのは残念だったが、チキンクリスプもまたうまかったので良かった。
ハンバーガー・チーズバーガー・チキンクリスプの三種を組み合わせて計4つのバーガーを食べて腹いっぱいになっても500円以内に収まるのがよかった。
ハンバーガー・チーズバーガーだけで腹いっぱいになるのは、同じ味ばかりで少しわびしい。
ハンバーガー・チーズバーガー・マックポークの組み合わせもよかったが、どれもひき肉なので少し飽きがくる。
チキンクリスプは揚げたチキンもさわやかなソースもよいアクセントになるので、ハンバーガー・チーズバーガー・チキンクリスプの三種組み合わせこそがマクドナルドの至上のメニューと言える。
チキンクリスプはハンバーガーと同じ価格なのにカロリーがかなり高いのもいい。
調べてみたらハンバーガー256kcal、チキンクリスプ344kcalだ。
調べてみたら、2016年1月5日に「おてごろマック」として200円で登場したとのことである。
チーズを入れるだけで100円のチキンクリスプを倍額にしてるのだと当時の私は感じたのだろう。
それほどコスパが悪いのだから、私が意識しなかったのも当然だ。
チキンクリスプ | チキチー | 価格差 | 価格比(チキチー/チキンクリスプ) | |
---|---|---|---|---|
2016年 | 100円 | 200円 | 100円 | 2 |
現在 | 180円 | 220円 | 40円 | 1.22 |
揚げたチキンは同じだが下にチーズが敷いてある分だけ舌触りが滑らかだ。
そしてチキンの上に乗っているソースだが、チキンクリスプとは違う。
かわりにまろやかで芳醇な香りが広がり、甘味や旨味があるクリーミーなソースだ。
食べている最中は味や香りでレモンとは気づかなかったが、思い返してみるとレモンだったような気もしてくる。