「投資」を含む日記 RSS

はてなキーワード: 投資とは

2024-06-07

これまでぼざろにどれだけ投資してきたのか運営は分かっているのだろうか?

熱心な信者から搾取することしか考えていないんじゃないのか?

少子化対策の話をするなら

少子化対策の話をするなら、まずは世界成功している少子化対策について見る必要がある。

日本対策が不十分なら、他の成功例を参考にするしかいからだ。

じゃあ、どこがうまくいってるかって言うと、北欧諸国がその代表例だ。彼らの成功には、いくつかの理由がある。

まず第一に、育児休暇とその充実度だ。スウェーデンノルウェーでは、父親育児休暇を取るのが当たり前。父親育児参加が進んでいるから、子供を産むことへのハードルが下がっているわけだ。「日本企業文化じゃ無理だ」と言うやつもいるだろう。でも、それができないのは企業が古臭い考え方にしがみついているからだろ?少なくとも、国が本気で取り組めば変えられないはずはない。

次に、保育施設の充実。デンマークなんかは、保育施設がたくさんあって、しかも質が高い。待機児童なんて言葉すら存在しない。日本でも待機児童問題は深刻だけど、「金がない」とか「土地がない」とか言い訳ばかり。実際には、予算の使い方が下手なだけだ。無駄公共事業に金をかけるくらいなら、保育施設の拡充に投資すべきだろう。

そして、教育費の無償化フィンランドでは、大学までの教育基本的無料だ。子供を産むと教育費がかかるから、産みたくないっていう親が多いけど、そういう負担を軽減する仕組みがあれば、もっと子供を産む人が増えるはずだ。それに対して、「財源がない」とか言うやつもいるだろうけど、本当に必要なことに使うなら、増税だって納得する人は多いはずだ。政治家のお友達予算に使われるよりはね。

さらに、女性の働きやすさ。北欧では、女性社会進出が進んでいて、出産後もキャリアを続けやす環境が整っている。日本じゃ、未だに女性が家庭に入るのが当たり前って考えが残ってるけど、そんな古い価値観を変えなきゃ、少子化対策なんて進まない。女性が働きやす環境を作るために、制度改革意識改革必要だ。

日本文化歴史があるから、そんなに簡単に変えられない」とかという話もあるだろう。でも、文化歴史があるからこそ、変えなきゃいけない部分もあるんじゃないのか?過去固執して未来犠牲にするのは愚かだ。

問題は、政治家企業が本気で取り組む気があるかどうかだ。本気でやれば、結果はついてくるはずだ。

でも、現状を変えたくない人たちが多すぎて、進まないってのが現実だろう。少子化問題解決するためには、抜本的な改革必要だ。だけど、それを実行する覚悟があるかどうかが問われているんだ。

バブル期まで → 男が働いて女は専業主夫兼業主夫OKだった

バブル崩壊から平成末期まで → 男は働いて女も正社員推奨

令和 → 男も女も正社員推奨+仕事の後も副業推奨+株や投資に対するリテラシー必要+リスキリン必須

いやもう無理でしょ

人間限界超えてるから

少子化にならない方がおかしいか

anond:20240606170608

そう出来ていればよかったんだろうけれど、

とにかく結婚を求める男女に出会いの場を提供する事そのものが許せず

自由恋愛自然結婚出来た勝ち組の子供だけに投資しろというのが有権者の総意みたいだから

どっちみち無理だったんじゃないか

2024-06-06

anond:20240606211918

毎年人口20万人程度を想定しても2兆円程度の予算で済むので悪くはない投資だと思うがねえ。

anond:20240606201803

日本では倫理的に無理だろ

日本よりも進んでて、しか日本よりも危機的な中共なら技術開発やるのかなって

そもそも日本に人工子宮作れるほどの投資できるの?

アメリカでも中共でもまだもたついてるレベルなのに

少子化対策には結婚支援子育て支援って認めたがらないやつあまりにも多すぎじゃね?

あらゆる子育て支援をどれだけ拡大しても夫婦の平均出生数は全く増えていない

そして少子化は明らかに婚姻数の減少によって加速しているとあらゆるデータが示してる

結局のところ子育て支援流れる金は子供を増やすことではなくすでにいる子供により良い投資を行うほうに消えているというのが統計的事実なんだよな

から少子化どうにかしたいなら婚姻数増やすほうに舵を切れってマジで当たり前すぎる話

二人産むより一人産んで全投資した方が生き残れる世の中なので

そら減るわ、全世界

ブクマカならそうした」さて、何をした?

判断を保留した

英語学習をするふりをした

無料フォントダウンロードした

大喜利をした

・2階に行った

婚活をした

ラブコメ漫画を読んで悶絶した

・3大◯◯を考えた

手斧を投げた

タイトルだけ読んだ

タイトルも読まずにコメントした

文句だけ言った

ダイエットをしようとした

・改めてファッションに興味を失った

積読をした

積みゲーを積んだ

投資をした

お酒を飲んだ

・「流行を追う奴はダサい」と言った

90年代を懐かしんだ

ちょっとした旅行をした

温泉に浸かった

風呂上がりに冷たいものを飲んだ

・寝る前に少しブコメをした

少子化対策に関して俺も含めてうだうだ話してるけど

多分もう何やっても無駄なところまで来てる

少子化前提社会を作ることに切りかえるべき

山口慎太郎@sy_mc

政策で動く出生率の幅は小さいから人的資本投資と考えたほうが良い」とか「少子化前提で労働力不足の解決を考えるべき」とか話したんだけど、案の定使われなかった…。

社人研・福田節也室長共働き育児若者には負担に映る

共働き子供を育てていくとなると、夫婦間でさまざまなすり合わせが必要となる。若い世代にはそれも負担と映るのかもしれない。結婚出産あくま個人自由選択の結果であるべきだが、1人で生きるより結婚子供を持つ人生の方が楽しいと思えるような社会に変えていかないと子供は増えない。

若者価値観結婚子育てから離れていってしまうと、仕事子育ての両立策を充実させても子供を増やすことは難しくなるだろう。

https://www.sankei.com/article/20240216-DOVVM3M7GVGDRG6RGNOD6ZY6AE/

ロシアで国際経済会議始まる 136の国と地域から参加

anond:20240604191922

https://www3.nhk.or.jp/news/html/20240606/k10014472231000.html

ロシアで5日、プーチン大統領が重視する恒例の国際経済会議が始まりました。ロシアとしては、欧米経済制裁が強化される中、中国インド中東などから投資を呼び込み、制裁の影響をやわらげたい思惑があるとみられます

ロシア第2の都市サンクトペテルブルクでは、5日、「国際経済フォーラム」が始まり主催者によりますと、136の国と地域から1万7000人以上の企業代表政府関係者などが参加する見通しだということです。

2024-06-05

I.GPT-4からAGIへ:OOMを数える (11)

補遺 OOMを駆け抜けるこの10年か、それとも破綻

私は以前、AGIへの短期的なタイムラインには懐疑的だった。その理由ひとつは、この10年を優遇し、AGI確率質量を集中させるのは不合理に思えたかである(「我々は特別だ」と考えるのは古典的誤謬のように思えた)。私は、AGIを手に入れるために何が必要なのかについて不確実であるべきであり、その結果、AGIを手に入れる可能性のある時期について、もっと「しみじみとした」確率分布になるはずだと考えた。

しかし、私は考えを変えました。決定的に重要なのは、AGIを得るために何が必要かという不確実性は、年単位ではなく、OOM有効計算量)単位であるべきだということです。

私たちはこの10年でOOMsを駆け抜けようとしている。かつての全盛期でさえ、ムーアの法則は1~1.5OOM/10年に過ぎなかった。私の予想では、4年で~5OOM10年で~10OOMを超えるだろう。

https://situational-awareness.ai/wp-content/uploads/2024/06/this_decade_or_bust-1200x925.png

この10年間、我々はOOMの数を競ってきたが、2030年代初頭以降は、ゆっくりとしたスローグに直面するだろう。

要するに、私たちはこの10年で1回限りの利益を得るための大規模なスケールアップの真っ只中にいるのであり、OOMsを通過する進歩はその後何倍も遅くなるだろう。もしこのスケールアップが今後5~10年でAGIに到達できなければ、AGIはまだまだ先の話になるかもしれない。

まり、今後10年間で、その後数十年間よりも多くのOOM経験することになる。それで十分かもしれないし、すぐにAGIが実現するかもしれない。AGIを達成するのがどれほど難しいかによって、AGI達成までの時間中央値について、あなたと私の意見が食い違うのは当然です。しかし、私たちが今どのようにOOMを駆け抜けているかを考えると、あなたのAGI達成のモーダル・イヤーは、この10年かそこらの後半になるはずです。

https://lh7-us.googleusercontent.com/docsz/AD_4nXe0r6fnJI53YqKa4sRV8xUwQtJLVqoBk16MCRwi8PYQWnOifB3rGVIl-3FbSdDosEIHyAnVe3xdni6Wy5MG1J020VeIM14qeZ25X4QMAvQQ1hVMxT9oey0h5Nae64Hy44P-ujLKOQb_WXM5ushSj3-2at8?key=dBAH1mD-mi8jAGZnPZl-1g

マシューバーネット(Matthew Barnett)氏は、計算機と生物学境界だけを考慮した、これに関連する素晴らしい視覚化を行っている。

I.GPT-4からAGIへ:OOMを数える (6)

データの壁

これらすべての重要な変動要因になりうるものがあります。つまり、より多くのスクレイピングデータでより大きな言語モデルをプリ・トレーニングするという素朴なアプローチが、まもなく深刻なボトルネックにぶつかり始める可能性があるということだ。

フロンティアモデルはすでにインターネットの多くで訓練されている。例えば、Llama 3は15T以上のトークン学習された。LLMのトレーニング使用されたインターネットの多くのダンプであるCommon Crawlは、生で100Tトークンを超えるが、その多くはスパムや重複である(例えば、比較的単純な重複排除は30Tトークンにつながり、Llama 3はすでに基本的にすべてのデータ使用していることになる)。さらに、コードのようなより特殊領域では、トークンの数はまだまだ少ない。例えば、公開されているgithubリポジトリは、数兆トークン推定されている。

データを繰り返すことである程度遠くまで行くことができるが、これに関する学術的な研究は、16エポック(16回の繰り返し)の後、リターンは非常に速く減少し、ゼロになることを発見し、繰り返しはそこまでしか得られないことを示唆している。ある時点で、より多くの(効果的な)計算を行ったとしても、データ制約のためにモデルをより良いものにすることは非常に難しくなる。私たちは、言語モデリング-プレトレーニング-パラダイムの波に乗って、スケーリングカーブに乗ってきた。大規模な投資にもかかわらず、私たちは停滞してしまうだろう。すべての研究室が、新しいアルゴリズム改善や、これを回避するためのアプローチに大規模な研究の賭けに出ていると噂されている。研究者たちは、合成データからセルフプレー、RLアプローチまで、多くの戦略を試していると言われている。業界関係者は非常に強気のようだ:ダリオ・アモデイ(Anthropic社CEO)は最近ポッドキャストでこう語った:「非常に素朴に考えれば、我々はデータ不足からそれほど遠くない[...]私の推測では、これが障害になることはない[...]。もちろん、これに関するいかなる研究結果も独占的なものであり、最近公表されていない。

インサイダー強気であることに加え、サンプル効率はるかに向上させたモデルトレーニングする方法(限られたデータからより多くのことを学べるようにするアルゴリズムの改良)を見つけることが可能であるはずだという強い直感的な理由があると思う。あなたや私が、本当に密度の濃い数学教科書からどのように学ぶかを考えてみてほしい:

モデルトレーニングする昔の技術は単純で素朴なものだったが、それでうまくいっていた。今、それがより大きな制約となる可能性があるため、すべての研究室が数十億ドルと最も賢い頭脳を投入して、それを解読することを期待すべきだろう。ディープラーニング一般的パターンは、細部を正しく理解するためには多くの努力(そして多くの失敗プロジェクト)が必要だが、最終的には明白でシンプルもの機能するというものだ。過去10年間、ディープラーニングがあらゆる壁をぶち破ってきたことを考えると、ここでも同じようなことが起こるだろう。

さらに、合成データのようなアルゴリズムの賭けの1つを解くことで、モデルを劇的に改善できる可能性もある。直感的なポンプを紹介しよう。Llama 3のような現在フロンティアモデルは、インターネット上でトレーニングされている。多くのLLMは、本当に質の高いデータ(例えば、難しい科学問題に取り組む人々の推論チェーン)ではなく、このようながらくたにトレーニング計算の大半を費やしている。もしGPT-4レベル計算を、完全に極めて質の高いデータに費やすことができたらと想像してみてほしい。

AlphaGo囲碁世界チャンピオンを破った最初AIシステム)を振り返ることは、それが可能だと考えられる何十年も前に、ここでも役に立つ。

LLMのステップ2に相当するものを開発することは、データの壁を乗り越えるための重要研究課題であるさらに言えば、最終的には人間レベルの知能を超える鍵となるだろう)。

以上のことからデータの制約は、今後数年間のAI進歩予測する際に、どちらに転んでも大きな誤差をもたらすと考えられる。LLMはまだインターネットと同じくらい大きな存在かもしれないが、本当にクレイジーなAGIには到達できないだろう)。しかし、私は、研究所がそれを解読し、そうすることでスケーリングカーブが維持されるだけでなく、モデル能力が飛躍的に向上する可能性があると推測するのは妥当だと思う。

余談だが、このことは、今後数年間は現在よりも研究室間のばらつきが大きくなることを意味する。最近まで、最先端技術公表されていたため、基本的に誰もが同じことをやっていた。(レシピが公開されていたため、新参者オープンソースプロジェクトフロンティアと容易に競合できた)。現在では、主要なアルゴリズムアイデアますます専有されつつある。今はフロンティアにいるように見えるラボでも、他のラボブレークスルーを起こして先を急ぐ間に、データの壁にはまってしまうかもしれない。そして、オープンソース競争するのがより難しくなるだろう。それは確かに物事面白くするだろう。(そして、ある研究室がそれを解明すれば、そのブレークスルーはAGIへの鍵となり、超知能への鍵となる。)

続き I.GPT-4からAGIへ:OOMを数える(7) https://anond.hatelabo.jp/20240605210017

I.GPT-4からAGIへ:OOMを数える (5)

アルゴリズム効率

コンピュートへの大規模な投資が注目される一方で、アルゴリズム進歩も同様に重要進歩原動力であると思われる(そして、これまで劇的に過小評価されてきた)。

アルゴリズム進歩がどれほど大きな意味を持つかを理解するために、MATHベンチマーク高校生競技数学)において、わずか2年間で~50%の精度を達成するために必要価格が下がったことを示す次の図を考えてみてください。(比較のために、数学特に好きではないコンピュータサイエンスの博士課程の学生が40%のスコアを出したので、これはすでにかなり良いことです)。推論効率は2年足らずで3OOMs-1,000倍近く向上した。

https://situational-awareness.ai/wp-content/uploads/2024/06/math_inference_cost-1024x819.png

MATHのパフォーマンスを〜50%にするために必要な推論コストの概算。


これは推論効率だけの数字だが(公開データから推論するのが難しいトレーニング効率の向上と一致するかどうかはわからない)、アルゴリズム進歩は非常に大きく、また実際に起こっている。

この記事では、アルゴリズム進歩を2種類に分けて説明します。まず、「パラダイム内」でのアルゴリズムの改良を取り上げることにしま す。例えば、より優れたアルゴリズムによって、同じパフォーマンスを達成しながら、トレーニング計算量を10倍減らすことができるかもしれません。その結果、有効計算量は10倍(1OOM)になります。(後ほど「アンホブリング」を取り上げますが、これはベースモデル能力を解き放つ「パラダイム拡張/アプリケーション拡張」的なアルゴリズム進歩と考えることができます)。

一歩下がって長期的な傾向を見ると、私たちはかなり一貫した割合で新しいアルゴリズムの改良を発見しているようです。しかし、長期的なトレンドライン予測可能であり、グラフ上の直線であるトレンドラインを信じよう。

アルゴリズム研究ほとんど公開されており、10年前にさかのぼデータがある)ImageNetでは、2012年から2021年までの9年間で、計算効率が一貫して約0.5OOM/年向上しています

https://situational-awareness.ai/wp-content/uploads/2024/06/pareto_frontiers_imagenet_epoch-1024x349.png

アルゴリズム進歩を測定することができます。同じ性能のモデルを訓練するために必要計算量は、2012年比較して2021年にはどれくらい少なくなっているのでしょうか?その結果、アルゴリズム効率は年間0.5 OOMs/年程度向上していることがわかります。出典Erdil and Besiroglu 2022.

これは非常に大きなことです。つまり、4年後には、~100倍少ない計算量で同じ性能を達成できるということです(同時に、同じ計算量ではるかに高い性能も達成できます!)。

残念ながら、研究室はこれに関する内部データ公表していないため、過去4年間のフロンティアLLMのアルゴリズム進歩を測定することは難しい。EpochAIは、言語モデリングに関するImageNetの結果を再現した新しい研究を行っており、2012年から2023年までのLLMのアルゴリズム効率トレンドは、同様に~0.5OOM/年である推定しています。(しかし、これはエラーバーが広く、また、主要なラボアルゴリズム効率公表を停止しているため、最近の上昇を捕捉していません)。

https://situational-awareness.ai/wp-content/uploads/2024/06/llm_efficiency_epoch-1-1024x711.png

Epoch AIによる言語モデリングにおけるアルゴリズム効率推定。この試算によると、私たちは8年間で~4OOM効率向上を達成したことになります

より直接的に過去4年間を見ると、GPT-2からGPT-3は基本的に単純なスケールアップでした(論文によると)が、GPT-3以降、公に知られ、公に干渉可能な多くの利益がありました:

最近リリースされたGemini 1.5 Flashは、"GPT-3.75レベル "とGPT-4レベルの間の性能を提供する一方で、オリジナルGPT-4よりも85倍/57倍(入力/出力)安い(驚異的な利益!)。

公開されている情報総合すると、GPT-2からGPT-4へのジャンプには、1-2 OOMアルゴリズム効率向上が含まれいたことになります

https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute_algos-1024x866.png

GPT-4に続く4年間はこの傾向が続くと予想され、2027年までに平均0.5OOMs/年の計算効率、つまりGPT-4と比較して~2OOMsの向上が見込まれます計算効率の向上は、低空飛行の果実を摘み取るようになるにつれて難しくなる一方、新たなアルゴリズムの改良を見出すためのAIラボ資金人材への投資は急速に増加しています。 (少なくとも、公開されている推論コスト効率化は、まったく減速していないようだ)。ハイエンドでは、より根本的な、トランスフォーマーのようなブレークスルーが起こり、さらに大きな利益が得られる可能性さえある。

これらをまとめると、2027年末までには(GPT-4と比較して)1~3OOMアルゴリズム効率向上が期待できることになります

続き I.GPT-4からAGIへ:OOMを数える(6) https://anond.hatelabo.jp/20240605205754

I.GPT-4からAGIへ:OOMを数える (4)

OOMを数える

どうしてこうなったディープラーニング魔法は、それがただ機能するということであり、あらゆる場面で否定的意見にもかかわらず、その傾向線は驚くほど一貫している。

https://situational-awareness.ai/wp-content/uploads/2024/06/sora_scaling-1024x383.png

OpenAI Soraの例 計算量のスケーリング効果

効果的な計算OOMが増えるごとに、モデル予測通り、確実に良くなっていく。OOMを数えることができれば、能力の向上を(大まかに定性的に)推定することができる。そうやって、先見の明のある数人がGPT-4の到来を予見したのだ。

GPT-2からGPT-4までの4年間の進歩を、スケールアップの3つのカテゴリーに分解することができる:

1. コンピュート:計算:これらのモデルを訓練するために、より大きなコンピューターを使うようになった。

2.アルゴリズム効率化:アルゴリズム進歩には継続的な傾向がある。これらの多くは「コンピュート・マルチプライヤ」として機能し、有効コンピュート量の増加という統一された尺度に乗せることができます

3.「趣味のない」利益デフォルトでは、モデルは多くの素晴らしい生の能力学習しますが、あらゆる種類の間抜け方法で足かせとなり、実用的な価値制限されます人間フィードバックから強化学習(RLHF)、思考連鎖(CoT)、ツール、足場などの単純なアルゴリズム改善により、潜在的能力を大きく引き出すことができる。

これらの軸に沿って、改善の「OOMを数える」ことができる。つまり有効計算量の単位でそれぞれのスケールアップをトレースするのだ。3倍は0.5OOM10倍は1OOM、30倍は1.5OOM100倍は2OOMといった具合だ。2023年から2027年まで、GPT-4の上に何を期待すべきかを見ることもできる。

ひとつひとつ見ていくが、OOMの数を急速に増やしていることは明らかだ。データの壁には逆風が吹いている可能性があり、それについては後述するが、全体的には、2027年までにGPT-4の上に、GPT-2からGPT-4規模のジャンプがもう1回起こると予想される。

コンピュート

まず、最近進歩原動力として最もよく議論されている、モデルへの(大量の)コンピュート投入について説明します。

多くの人は、これは単にムーアの法則によるものだと考えている。しかし、ムーアの法則が全盛期を迎えていた昔でさえ、その進歩比較的緩やかなものでした。しかし、ムーアの法則が全盛期だった昔でさえ、10年で1~1.5OOMと、比較ゆっくりとしたスピードだった。(かつては1つのモデル100万ドルを費やすことさえ、誰も考えもしないことだった。)

モデル推定コンピュート 成長率
GPT-2 (2019) ~4e21 FLOP
GPT-3 (2020) ~3e23 FLOP + ~2 OOMs
GPT-4 (2023) 8e24~4e25 FLOP + ~1.5~2 OOMs

エポックAIによるGPT-2からGPT-4までの計算量の推定

エポックAIAIトレンドの優れた分析で広く尊敬されている情報源)の公開推定値を使用して、2019年から2023年までのコンピュートスケールアップを追跡することができますGPT-2からGPT-3へのスケールアップは迅速で、小規模な実験から大規模な言語モデルを訓練するためにデータセンター全体を使用するまでにスケールアップし、コンピュートのオーバーハングが大きくなりました。GPT-3からGPT-4へのスケールアップでは、次のモデルのためにまったく新しい(はるかに大きな)クラスタを構築しなければならないという、最新の体制に移行しました。それでも劇的な成長は続いていますエポックAIの試算によると、GPT-4のトレーニングでは、GPT-2の3,000倍から10,000倍の計算量を使用しています

大雑把に言えば、これは長期的なトレンド継続に過ぎない。過去10年半の間、主に投資(およびGPUやTPUの形でAIワークロードに特化したチップ)の幅広いスケールアップのため、フロンティアAIシステム使用されるトレーニング計算量は、およそ〜0.5OOM/年で成長してきた。

https://situational-awareness.ai/wp-content/uploads/2024/06/compute_long_run_trend-1024x968.png

注目すべきディープラーニングモデルトレーニングコンピュートの経年変化。出典エポックAI

GPT-2からGPT-3への1年間のスケールアップは異例のオーバーハングであったが、長期的なトレンドが続くことは間違いない。SF-rumor-millは、巨額のGPU受注の劇的な話で一杯だ。その投資は並大抵のものではないが、動き始めている。

この分析によれば、2027年末までにさらに2OOMsのコンピュート(数十億ドル規模のクラスター)が実現する可能性は非常に高いと思われる。さらに+3OOMsのコンピュート(1,000億ドル規模以上)に近いクラスターも可能性がありそうだ(マイクロソフト/OpenAI計画中と噂されている)。

https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute-1024x866.png

続き I.GPT-4からAGIへ:OOMを数える(5) https://anond.hatelabo.jp/20240605205449

やっぱ子育ては損得じゃん

子育ては損得か否かで増田とはてぶが荒れてたことがあるけど

子育て支援をいくら充実させても少子化には全く効果がないって結果出てるんだよな

まり子育て支援で拡充された分は二人目以降ではなく一人の子供につぎ込まれてたってこと

費用対効果を上げるために少ない対象により投資するわけだ

やっぱ子育てって損得じゃん

anond:20240605141004

フィッシャーは子を育てるコストを親の出費と呼んだ。フィッシャーの原理重要な点は、進化的に安定な状態となるのは、子の数の性比が1:1の時ではなく、親がオスの子とメスの子へ振り分ける総出費の比が1:1になるときである発見したことである

Cm × M = Cf × F

Cmはオスを作るコスト、Mはオスの子数、Cfはメスを作るコスト、Fはメスの子数を表す。つまり、たとえばオスの子がメスよりも大きく成長する(しなければ性選択に勝てないなど)状況で、オスを育てるコストがメスの二倍になるのであれば、その動物ではオスの子の数はメスの半分に減るだろうということである。そして多くの動物ではこの予測がおおむね成り立っている事がわかっている。フィッシャーの親の出費(現在では「親の投資」と呼ばれる)の概念は、特にロバート・トリヴァーズによって洗練されて生態学重要概念となった。またこ予測を大きく外れるケースについてはハミルトンが『異常な性比』で論じている。

フィッシャーの原理キモは、数ではなく数×コストが1:1になることらしいぞ。

anond:20240604131321

金儲けが目的のやつが、漫画ドラマも作るわけねーだろ。

投資でもするわ。

お前の言う通りの状況があったら、金儲けが目的になってるほうが悪いんだよ。

目的手段が逆になってるということだからだ。

 

でもそうじゃない。

テレビ局ドラマを作ってる奴は、そのほうが面白いと思ってクソ作品を作る。

からお前の想像より更に状況はクソなのだ

不動産で儲けてるのは誰なのか?

それとも誰も儲かっていないのか

 

日本では1年で50兆円以上はかかってる住居

の割に投資ではあんまりからないとか、建設側も設計側もさして特別儲かってる感じがしない

こんだけのパイがあって美味しい隙間はないんだろうかね

 

まあそれ言ったら飲食だって何十兆円も動いてるか

2024-06-04

[]子供楽器(ピアノなど)を習わせる前に、そして、今習わせてる人へ。

お父さん、お母さんが楽器を弾けるなら、以下の文は、釈迦に説法、孔子論語ラフマニノフソナチネパガニーニにクロイツェル。(後ろの2つは聞けるものなら聞いてみたい。)

ガチ音大目指すとかそういうのじゃなく。子供楽器を習わせている一人の親として。自分趣味楽器が弾けるだけ。業界の人でもプロでもない。

子供ピアノとか弾けたらいいなとか、バイオリンっひけたらかっこいいなとか。そんな感じで子供(4歳くらいか小学生低学年まで)に楽器を習わせたいなと思っている親御さんへ。

習わせる覚悟は犬を飼うのと同じと思ってね。親が思う、「趣味程度で楽器が弾けるといいな」になるには、最低10年、だいたい15年くらいは習わないと、そうならないと思う。

犬と違って、途中で辞めることはできるけど。

子供が「ピアノやだー」っていってても、レッスンには毎週連れて行って、うちで弾き始めたら「うまくなったね」って言って、だらだら続けていれば、いずれ楽しく弾けるようにはなると思う。

自分の子供にはピアノを習わせてる。5年生(女)と2年生(男)だけど、一緒に習っているお友達だんだん辞めるようになってきた。

特に小学校低学年でかなりの割合の子が辞めちゃう。3~5年くらい習ってたことになるんだけど、それだとたぶん、この先は趣味でもピアノは弾けないと思う。楽譜も読めないと思う。

すごく勿体ない。その時間、別の習い事をしていればとさえ思う。辞める理由は、練習しなくなったとか、お金がかかるからとか。

発表会でもうちの子より上手に弾いてたのに、と思うと、本当に勿体ない。

楽しく自分のペースで弾けるようになるには、中学終わるくらいや高校生までかかると思う。そこまで続けば、しばらく休んでも再開できるし(手は動かなくなってるが)、楽譜もそこそこ読める。

いわゆる才能があって、小学生の間に、上手に弾けて楽譜も読める子は、たぶん辞めたくないっていうし、先生も引き留めるから大丈夫。この話の対象ではない。

子供楽器練習させるには親の協力も必要だ。鈍感力(できなくてあたりまえ。家ではほぼ騒音)と、共感力(できたときに褒めるだけ)、忍耐力(練習していないままでもレッスンには連れて行く。)が必要だ。

それに加えて、やっぱりお金。毎月最低1万円くらい×12ヶ月×12年。だいたい150万円くらい。楽器代や楽譜などの教材費は除いてそれくらいはかかる。

よく、ピアノ中古でも高いとか、バイオリンは買い換えが・・・、とかいうけど、長期にかかる月謝も高い。

塾や習い事が増えてきて、お金もかかるし取捨選択を迫られたときに、どうしても楽器は辞める方向になりがちだ。お金を出しているのが、楽器を弾かないお父さんだった場合特に

でもちょっとまってやって。ここで辞めたら無になる。ここは、投資で言う「コンコルド効果」をいい意味で考えよう。「ここまで払った投資無駄になる。きっと上向くはずだ。」

自分は4歳から高2までバイオリンを習ってた。親は楽器は弾けない。

中学生、高校生の時はほとんど練習せずに週Ⅰレッスンだけ行ってた。だから、同じ先生に習ってた同じくらいの年の子より数段下手。ソロで人に聞かせるレベルではない。

でもね、楽譜みながら、一応音は拾えるし(拾えたからといって弾けるとは限らないが)、楽器楽しい

妻は中学高校までピアノを習ってた。大学軽音楽部で知り合って結婚した。そのとき僕はバイオリンではなくウッドベース弾いてたけど。

子供楽器を習わせてるのは、ただ1つ、大人になって楽しみが増えるから。一人でも楽しいし、数人集まっても楽しい

雨の日も、年をとっても、楽器楽しいから

スポーツと違って、対戦相手もいらない上に、仲間がいればもっと楽しい。ケガもしないし、遭難もしない。超平和

自分たちのレベル適当に合わせるのは本当に楽しい

居酒屋喫茶店で、雑談してるような楽しさ。時間がすぐに無くなる。

別に人に聞かせる必要は無い。

https://anond.hatelabo.jp/20240604011244

1億円あげてみたい

毎年の取材協力の依頼

一言レポート

120文字以内

10年間定期、観察したいわ

貧乏人が大金を持つと7割ほど身を持ち崩す

インデックス投信でも買って配当で遊ぶかー

みたいな各々の考える堅実な投資ができず

散財して、自己破産ちゃうんだとか

みたいの。

AIアートスクール

ツイッター批判されてるけど、上手い商売だと思うね。アート勉強になるかは今後のAIイラストの普及次第だからからないけど、大企業も着々とAIイラストを導入してるから可能性は無くもない。

ハナから頭ごなしに批判する人は感情論否定しかしてないか説得力が無いし、否定する人のアカウントを見ると絵師じゃない、もしくは底辺の下手くそ絵師ばかりでこれまた説得力に欠ける。

スケッチブック鉛筆消しゴムを買った方がアート経験積める」ってポストして伸びてた人のアカウント見ると2018年アカウント開設して二次創作で1300人程度のフォロワーしか獲得してないから、6年間(もっといかもしれんが)スケッチブック鉛筆消しゴムアート必死に学んでしか二次創作で1300人程度のフォロワーしか獲得できない無駄な労力を費やすサンプルを見ちゃったら、

手っ取り早くAIアートのコツを掴んだ方が将来の可能性に投資するには有益だと思ってしまうな。

他人の成果をパクって生成する」とか言ってる人もいるけど、それまんま二次創作承認欲求と金儲けしてる奴にも言えるよね。

anond:20240604100952

トリクルダウンはないと実証されてたはずだが、アベノミクストリクルダウン政策ではない。

トリクルダウン金持ち企業政府が金を渡せば投資によって全体に恩恵が行き渡るというクソ理論だが、アベノミクス金融緩和しかほぼやってないのでトリクルダウンではない。

ログイン ユーザー登録
ようこそ ゲスト さん