「コンピ」を含む日記 RSS

はてなキーワード: コンピとは

2024-10-19

高卒新卒採用ルールを緩和するより、大卒にも適用した方が幸せでは?

↓これの話と、

高卒採用を増やしたいんだけど、現状の異様な高卒新卒採用ルールを変更してほしい。学生職業選択の自由を奪っている→賛否両論議論

https://togetter.com/li/2451761

そのブコメ↓を見てて思ったけど

https://b.hatena.ne.jp/entry/s/togetter.com/li/2451761

自由競争にしたら採用する側、企業側に有利だけど、採用される側は不良だよな。

逆に、現状の大学生でも理系研究室から推薦されて就職する流れは高卒採用ルールと変わらないので、大学生もそっちに合わせた方が良いのでは。

学生企業の直接交渉禁止されている

リクルートマイナビみたいな企業が力持ってる状況から大学就職相談室やキャリアサポートセンターが力を持つ状況になるだけ。

競い合うの大学相談室間のバトルで、ウチの生徒は他大学の生徒より優秀ですバトルだから健全では?

リクルートとかは各大学コンサル的な事業シフトすれば良い。コンピテシー診断とかの企業に売ってるシステム大学向けにアレンジするとか。

大学内部に向かう力学としては、うちの卒業生は優秀だ、使える、と評価される必要が強まる。そのために最近企業側で新卒に求めるスキルを授業にも組み込むか、サポート講座を設けよう、とかになる。

大学側も学内選考学校の成績や校内での実績に基づいて順位付けする事になるので、生徒に対して授業や大学のものへ貢献してもらうモチベーションは直結して高められる。

大学自体社会的評価を上げて、企業から求人学校単位でたくさん貰えるような学校にならないと行き詰まるし、採用された卒業生をみて「あそこの大学のあの学部卒業生なら間違いないよ」と言われる教育を施す必要がある。

(現状では理系研究室はそれに近い状況)

大学側の施策がズレてたら少しタイムスパンはあるけど、学校学部単位評価がモロに影響するから放置されないで是正される。

大学3年の後半から4年にかけても、自分希望企業学内選考で入るには授業で大学が求める成績をあげるため就活するから学校なんて後回しにはならない。

そもそも任天堂に入るには〇〇大学の〇〇学部採用枠持ってる持ってないが高校生向けの大学パンフレットに載ることになるし、2025年〇〇社より新たに採用枠2名獲得!とかがアピールポイントになるのでは

企業側がお金人員リソース費やしてる所に、大学生が個々人のリソースで1年近い時間を費やして対応してるの、企業vs個人の段階で不利なんだから企業vs大学の方が健全だと思う。

2024-09-03

エンジニアに学ぶダイエット

昨年、一念発起して100kgの大台から70kgまで、30kgの減量に成功した。

それをもっぱら食事改善によって果たした。

やたらと知見を共有したがるのはエンジニアの美点の一つだが、私もその例にならい、ここにダイエット中に学んだことを共有しようと筆を執っている。


ダイエットとはそもそも日常食事のことを指し、それが転じて食習慣の適正化意味するようになった。

減量の本質もそこにある。

人は食べたものからできている。食習慣を適正化すれば、自然健康的になる。

そこで、ここでは食習慣の適正化に焦点を当てて解説する。


30kgもの減量に成功した最大の要因は、自分エンジニアであったことだと思う。

そもそもプログラミングとは、入力されたデータに対して任意の出力データを得るために加工する、その計算方法設計し、実装することを指す。

料理もまた同じで、食材という入力に対して、調理実施し、料理という出力を得る。

そのため、体重と食習慣の適正化というプロジェクトに対して、プロジェクトマネジメント手法が応用可能なのだ


環境投資する

環境への投資重要だ。

メモリ4GBのオンボロPC抱えてパイプ椅子で開発すすめても、ろくに進捗しないのと同じだ。

ただし、闇雲に金をかければよいというものでもない。投資すべきものというのは、だいたい決まっている。



どれも無くても減量自体可能ものばかりだが、あったほうが効率が良い。

そもそも減量はモチベーション管理ゲームなので、自動化、簡易化できるところはやったほうがいい。

金を払って健康を買っていると考えればよい。


アーキテクチャを固め、規約を定める

まったくアーキテクチャを考えず、行き当たりばったりでファイルごとに違う設計プロジェクト悲惨な結果を招く。

最初にこのアーキテクチャで行くと決め、ひとまずはそれを続けることが大事だ。

減量で言えば、ローファットでいくかローカーボでいくかということだ。

日によって低脂質でいったり低糖質でいったりするのは全く良くない。

自分は低脂質でいくことにした。そのほうが筋肉量の減少を抑えられるし、コレステロール値の改善にも効果的だからだ。


また、コード規約重要だ。

金融プロジェクトありがちな細かすぎるコード規約有害無益時間と金無駄だが、余りにフリーダムなのも混乱のもとである

減量でいえば、目標カロリー量とPFCバランスだ。ここがいい加減だと、到底うまくいかない。

カロリー量はハリスベネディクト方程式から出される基礎代謝の1.5倍とかに設定すればよいだろう

そのうえで、低脂質ならP:30%, F:20%, C:50%のように割り振ろう。

たとえば1600kcal目標なら、P: 480kcal = 120g, F: 320kcal = 35g, C: 800kcal = 200g、といった感じだ。

この規約を守るためにも、あすげん/カロミルがあれば、計算が楽だったというわけだ。


コンピュテーションタイミングをずらす

プログラミングでは、実行時に行うと重すぎる計算ビルド時など事前に行ったりすることがある。

初代スーパーマリオブラザーズジャンプは、1フレームごとに重力係数をかけて計算しているわけではなく、加速度ハードコードされている。

ブロック崩しでさえ物理演算するような現代においても、似たようなことをすることはある。

ダイエットで言えば、時間的余裕のあるタイミングで、できることをしておけということになる。

キャベツを千切りにしたり、きゅうりトマトを切ったり、オートミール材料混ぜておくことは事前にできることなのだ。

夜寝る前などにやっておき、明日調理工数を最低限にしておくことが大事だ。

処理したものジップロックコンテナにでも入れて、冷蔵庫しまっておこう。

よく食べる鶏むね肉や牛もも肉なんかもキロ単位で大量買いして、1食量ごとに切り分け、ジップロックバッグに入れて冷凍庫に入れておこう。

次の日に食べるものを、前日に冷蔵庫に移せばいい。


キャッシュする

適切なキャッシュがもたらす実行速度の向上効果は非常に大きい。

これは料理についても言える。

毎食ごとに献立を考え、材料を揃え、包丁で切ったり、コンロで焼いたり…などの調理を行うのは非常に効率である

冷蔵庫の中身をレンジで温めるだけなら、5分で終わる。

いわば冷蔵庫メモリキャッシュであり、冷凍庫ディスクキャッシュのようなものである

よく1人分作るのも3人分作るのも変わらないよ〜などと言うが、同じ理屈で1食分作るのも、3食分作るのも、手間としてはたいして変わらない。

から10食分まとめて作って、保存しておけばよいのだ。

大きなジップロックコンテナを用意するのはこのためだ。


ライブラリ活用する

エンジニア車輪の再発明を嫌う。

すでに広く使われ、実績のあるライブラリがあるのに、なぜ一から作らなければならないのか。

これはダイエットについても言える。

安価で大量に手に入るカット野菜などは、買ってしまえばいいのだ。

たとえばきんぴらごぼう。作ると面倒なきんぴらごぼうだけど、その面倒さの9割はごぼうを千切りするところにある。

千切りして水にさらし終わったら、きんぴらごぼう調理工程の9割は終わっている。

しかもこの部分は、工数が量に依存しているため、大量作成恩恵を受けづらい部分だ。O(n)である

一方でカットごぼうを大量買いすれば、あとは炒めるだけなので量に依存せず、大量作成が容易になる。O(1)にすることができる。


他にも、オイコスヨーグルトとか、サラダチキンとか、Baseブレッドなどの外部サービスを使うのも良い。

オンプレミスにこだわる必要はないのだ。

挫折して健康を害することに比べれば、安いものだ。


コピペマンに徹する

プロジェクトの初期段階、リードエンジニア重要クラス群とサンプルとなるクラスをいくつか作った後は、それをひらすらに横展開していくことになる。

この段階では天才エンジニアなど必要なく、コピペマンでじゅうぶんになる。むしろ下手に独自の考えを持たず従順に開発してくれるぶん、そのほうが良いことさえある。

ダイエットについても同じことが言える。

なぜ毎食毎食、独自健康メニューを考え出さないといけないのか。食事の都度、栄養成分を計算し、調整しなければならないのか。

あすけんで一度100点をとったらあとは、ひたすらそれをこすり続ければいいだろう。

例えば以下は、ある日の自分食事である


オートミールきのこ

オイコスヨーグルト

納豆キムチ、卵を混ぜたもの

きんぴらごぼう

しかぼちゃ

キャベツトマトきゅうりサラダ

ふかしたさつまいも

低温調理したささみ

きんぴらごぼう

しかぼちゃ

キャベツトマトきゅうりサラダ

オートミールきのこ

りんご(皮ごと)

わかめ味噌汁

もも肉を焼いたもの

きんぴらごぼう

しかぼちゃ

キャベツトマトきゅうりサラダ


毎食似たようなものを食べていることがわかるだろう。

これは日単位でも同じで、別の日は牛もも肉が刺し身になったり、さつまいも蕎麦になったりはするが、その程度の差だ。

それで痩せるのだから、それでよいのである

どうしても違うものが食べたくなったら、そのときに改めて計算すれば良いのだ。

そうすれば手持ちのカードが増えていく。


インシデントで人を責めない

インシデントが発生したとき必要なのはリカバリーであって、そんな時に人を責めても何の役にも立たない。時間無駄だし、士気も下がるだけだ

ダイエットにおいてもインシデントは時折発生する。

ラーメン我慢できずに食べてしまう、アイスが、飲み会が…。

こうしたとき自分を責めても仕方がない。自分をクビにはできないし、ダイエットは長期戦なのだ

ある日に食べすぎたからと言って、次の日にその分を減らすと、必要糖質や脂質が不足して代謝が落ちてしまったり、だるさが抜けなくなったりするため、そういう方向でのリカバリーはやめよう。

しっかりと痩せる食事スタイル確立しているなら、それを続ければ良いだけだ。

どうせ1食程度ではそんなに太ることはできない。


計測する

計測は減量期間中だけでなく、むしろ減量終了後にこそ必要になる。

観測監視運用フェーズにこそ必要なのだ

そもそも、減量前の食事が減量前の体重を作り上げてきたのだから、減量前の食事に戻せば、体重も戻るのは当然のこと。

もとの体重に戻りたくないなら、新たな食習慣を作り上げる必要がある。

ダイエットは一生続くとはそういう意味だ。

プロダクトリリース後、つまり減量後の運用フェーズうつったら、減量飯でもデブ飯でもない、心にも体にも良い食習慣へと移っていこう。

急激なUI変更がユーザーの反発を招くように、急激な食事変更は体重の反発(リバウンド)を招く。

そこで、オートミールだったところを玄米ごはんにするとか、ささみだったところを蒸し鶏にするとか、ちょっとずつ維持するためのご飯へと変えていき、どのくらいの量なら大丈夫なのかを見つつ、ソフトランディングしていこう。

2024-09-01

anond:20240901083011

てか、ゆるコンピーターラジオの人ってそういうスタイルだったんだと思って意外に感じたと同時にちょっと幻滅した

いくつかYouTube動画みたけことあるけど、悪いい印象はなかったんで

2024-07-16

カメラ増田解説がお世辞にも良いと言えないので俺が話す

還暦を過ぎたカメラ歴50年のジジイの話で良ければ読んでいけ

マニュアルフォーカス

まずな?プロマニュアルしか使わないなんて嘘だ。特に動体撮影する連中は逆にオートフォーカスしか使わん。スポーツ写真でもアイドルライブ写真でもオートフォーカスが基本。

そしてSONYの正直に言ってマニュアルフォーカスは使いにくく、マニュアルフォーカスの扱いやすさで言えばキヤノンが優勢だ。なぜかって?家電量販店で試してこい。マニュアルフォーカス時のユーザーインターフェースの時点で出来が違うから

SONY

SONYはなオートフォーカスがすべてだ。キヤノン党やニコン党やフジ党に聞いてみろ。口を揃えて「SONYオートフォーカス"だけ"は敵わないっすねぇ」って言うから

SONYがはじめてカメラSONYオートフォーカスが当たり前になってみろ。他社へ乗り換えた際に「遅っ!!」「えっなんで認識しねぇの!?」となるのは確実だ。

動画撮影機能家電メーカーだけあって優れており、その辺りのバランスの良さからSONYカメラ子供が生まれ新米パパに人気になっている。購入年齢層が本当にそれなのである若者Youtubeで人気なのはこういう万能的なカメラだし実際に売れてる。

キヤノン

白飛びしやすいというのは些か語弊があり、露出オーバー気味・・・まりは明るく写そうとする傾向があるのだ。だから明暗差の大きい例えば室内の窓から屋外の景色を写そうとすると盛大に白飛びする。

しかしこれは他社でも明暗差の大きいシチュエーションでは同じでキヤノンはその傾向が強めに出ると思えば良い。何でもかんでも白飛びするわけでないので大げさに心配する必要はない。

キヤノンと言えば人肌と言われるほど人物撮影が得意と言われている。この評価は確かにそうだが実際には発色が良いと表現したほうが適切だ。

キヤノン現実世界の色味をそのまま出すのではなく人間が綺麗だと感じたり、過去の思い出の中で振り返る美しい景色などの色味、いわゆる「記憶色」で写すメーカーなのだ

からこそ雑誌インターネットで見たような色味の写真を撮りたいみたいな需要マッチする。iPhone的と言えばiPhone的だが、むしろ逆でiPhoneキヤノンパリッとした発色をソフト処理で真似てる。コンピュテーショナル・フォトグラフィーってやつだな。

あとファインダーを覗くと視線オートフォーカス対象を決定できる機能メチャクチャ凄いので、家電量販店マニュアルフォーカス試すついでにやってみると良い。むしろコッチのほうが感動する人は多いハズ。

ニコン

ニコン純正レンズだ!ニッコールだ!レンズ性能が他社よりも1歩2歩進んでいて、その光学性能はカメラメーカーというかレンズメーカーの中でも随一だと言って良いだろう。双眼鏡も単眼鏡望遠鏡ニッコール

オートフォーカスが弱い?いやそれは化物オートフォーカスSONY視線オートフォーカスキヤノンと比べるのが悪いのであって、こういうこと言う輩はRICHO GRシリーズとか使ったこと無い輩なので聞く耳持たなくて良い!下には下が居るぞ!RICHO GRシリーズユーザーGRオートフォーカス信用してるヤツに俺は会ったことがないからな!(笑)

ニコンの色味は現実に合ったナチュラルカラーの「自然色」だ。とは言っても大半のカメラマンはRAW現像してしまうので一発で決まった色味の出るキヤノン比較するならばRAW現像前とRAW現像後の比較がしやすいのがニコンだな!キヤノンは撮った時点のものがもうコレで良いんじゃね?となりがちだ!

RAWファイルギリギリまで追い込んで遊びたい!みたいなヤツはニコンの方が楽しいかもな。面倒臭いから一発で良い感じの出せって言うならキヤノンの方が良く、子供ペットを追いかけ回して写真動画も何でもやりたい!ならSONYだ。

あぁちなみにだが写真機としてのボディ形状やボタン配置などは好みの差はあるものSONYよりもキヤノンニコンの方が優れていると言うカメラマンは多いし実際に俺もそうだと思う。

Panasonic

もうハッキリ言おう!こいつは動画機だ!写真機としてはまだまだ未完成だ!いやぁ惜しいんだけどな!キヤノンニコンSONY富士フイルムの完成度と比較ちゃうとなぁ……。

しか動画機と見ればかなり良い。手ブレ補正は効きまくりだしYoutube全盛のインターネットで相当にマッチしていると言って良い。動画がメインで写真オマケっていうヤツが買え!

でも昨今の機種に搭載が始まっているユーザーが色味を自由自在に出来てしまリアルタイムLUTは非常に楽しい機能なので、リアルタイムLUTのためだけにパナにするってのもナシではない。

富士フイルム

中判というどデカイメージセンサーを搭載しているカメラ販売しているが主力は中判よりも小さいフルサイズよりも小さいAPS-Cイメージセンサーを搭載したカメラだ。

APS-Cよりも小さなマイクロフォーサーズ搭載カメラにも言えることだが、カメラレンズも小型軽量なのは正義ですよ。持ち歩く気になるか?ってのはカメラ趣味にとって大きな要素なのです。

からこそ言いたい女性諸君!キミたちのカメラはコレですよ!中判とかフルサイズとかデカくて重いしさ、結局のところ男が使うことを想定してるんだもの女性の手や体格じゃ中判やフルサイズキツイって!

ジジイもさ女性モデルさんにカメラ持たせて雑誌レビューしたことあるが、中判やフルサイズなんてモデルさんの顔面と同じくらいのサイズあるんだよ?ポーズ取って貰うんだけど重くてツラそうなの!実際に重いんだってさ!

そこでAPS-Cに本気な富士フイルムですよ!ついでにマイクロフォーサーズを本気でやってるPanasonicですよ!これのレビューときはねモデルさんも楽なんだよ!フルサイズカメラレンズなんて女の子の拳よりもデカいんだからね?APS-Cはそんなことない!

APS-Cサイズ感がちょうど良くて、更にフィルムメーカー富士フイルムがこだわる色味で撮影できるわけですよ。オートフォーカスの効きもそこそこ良いし動画だって撮影できる。ボディ筐体のデザインレトロでおしゃれだ。コスプレイベントでも富士フイルム女の子カメラマン見たこ結構あるぞ!

ジジイカメラ

ちなみにだがジジイカメラキヤノン EOS R3、SONY α7CR、ニコン Zf、富士フイルム X-T5、RICOH GR3x、Leica M11です。R3はしっかりした仕事以外で使いたくねーから普段はそれ以外の気分で持ち歩いてる

2024-06-14

ショートまれた上に逆日歩発生してかすかな希望のために損切りしないみたいな話しだね

コンピ地獄から離婚

量子コンピューター技術は、究極の出会い系アプリを生み出す可能性がある。未来マッチメイキング革命

量子コンピューター古典的コンピューターでは到底追いつけない計算速度を持ち、膨大なデータを瞬時に解析できる。

量子コンピティングは、複雑な経路最適化問題データセットを高速に処理し、最適な解を見つけることができる。

例えば、膨大なユーザープロフィール趣味嗜好、行動履歴などを一気に処理し、最適な相手を見つけ出す。

もちろん、ここで重要なのはデータの質と量だ。

事前にチャットAIで膨大な個人情報収集した企業が、量子コンピティング個人同士の関係性を最適化し、人間関係という複雑な問題を解いてしまうのだ。

「いま目の前にいる人は、1,000万人の登録者の中であなたに最適です」と言われたら、お互いに興味を持つに違いない。

2024-06-05

状況認識:今後10年の展望 -- はじめに

X (twitter) で SITUATIONAL AWARENESS: The Decade Ahead https://situational-awareness.ai/ というのが回ってきて非常に示唆に富むものだったので、DeepL (無料API経由) で訳してみた。

レオポルド・アッシェンブレナ2024年6月

サンフランシスコに行けば、まず未来が見える。

この1年で、街の話題100億ドルコンピュート・クラスターから1000億ドルクラスター、そして1兆ドルクラスターへと移り変わってきた。半年ごとに、役員室の計画にまたゼロが追加される。その裏では、残りの10年間に利用可能なすべての電力契約と、調達可能なすべての電圧変圧器を確保しようとする熾烈な争いが繰り広げられている。アメリカ大企業は、アメリカ産業力を結集させるために、何兆ドルもの資金を注ぎ込む準備を整えている。ペンシルベニア州シェールフィールドからネバダ州太陽光発電所まで、何億ものGPUが稼働する。

AGI競争が始まったのだ。私たち思考し、推論できるマシンを作りつつある。2025年から26年にかけて、これらのマシンは多くの大学卒業生凌駕するだろう。10年後までには、これらのマシンは私やあなたよりも賢くなり、本当の意味での超知性を手に入れるだろう。その過程で、この半世紀には見られなかったような国家安全保障の力が解き放たれ、やがて「プロジェクト」が始動する。運が良ければ、中国共産党との全面的競争になり、運が悪ければ全面戦争になる。

今、誰もがAIについて話しているが、何が自分たちを襲おうとしているのか、かすかな光明を感じている人はほとんどいない。Nvidiaアナリストは、まだ2024年ピークに近いと考えている。主流派評論家たちは、「次の言葉予測するだけだ」という故意盲目に陥っている。彼らが見ているのは誇大広告といつも通りのビジネスだけで、せいぜいインターネット規模の新たな技術革新が起こるのを楽しむ程度なのだ

やがて世界は目を覚ますだろう。しかし、今現在、状況認識を持っているのはおそらく数百人で、そのほとんどはサンフランシスコAI研究所にいる。運命不思議な力によって、私はその中に身を置くことになった。数年前、このような人々はクレイジーだと揶揄されたが、彼らはトレンドラインを信頼し、過去数年間のAI進歩を正しく予測することができた。この人たちが今後数年についても正しいかどうかはまだわからない。しかし、彼らは非常に賢い人々であり、私がこれまでに会った中で最も賢い人々である。おそらく、彼らは歴史の中で奇妙な脚注となるか、あるいはシラードやオッペンハイマーテラーのように歴史に名を残すだろう。もし彼らが未来を正しく見ているとしたら、私たちはとんでもないことになる。

私たちが見ているものを教えよう。

目次

エッセイはそれぞれ独立したものですが、シリーズ全体として読むことを強くお勧めします。全エッセイPDF版はこちら。

はじめに 【このページ】

歴史サンフランシスコで生きている

I.GPT-4からAGIへOOM(Orders of Magnitude)を数える

2027年までにAGIが実現する可能性は極めて高い。GPT-2からGPT-4までの4年間で、私たちは~未就学児から~賢い高校生までの能力を手に入れた。計算能力(~0.5桁またはOOMs/年)、アルゴリズム効率(~0.5OOMs/年)、および「趣味のない」向上(チャットボットからエージェントへ)のトレンドライントレースすると、2027年までに再び未就学児から高校生サイズ質的ジャンプが起こると予想される。

II.AGIから超知能へ:知性の爆発

AI進歩人間レベルでは止まらない。何億ものAGIがAI研究自動化し、10年に及ぶアルゴリズム進歩(5以上のOOM)を1年以下に圧縮することができる。私たちは、人間レベルから超人的なAIシステムへと急速に進化することになる。超知能の威力危険性は劇的なものとなるだろう。

III.課題
IIIa.兆ドルクラスタへの競争

驚異的な技術資本の加速が始まっている。AI収益が急増するにつれ、10年末までに何兆ドルもの資金GPUデータセンター、電力の増強に投入されるだろう。米国の電力生産を数十%増加させるなど、産業界の動員は激しくなるだろう。

IIIb.研究所の封鎖AGIのセキュリティ

米国の主要なAI研究所は、セキュリティを後回しに扱っている。現在、彼らは基本的にAGIの重要な機密を銀の皿に載せて中国共産党に渡している。AGIの秘密とウェイトを国家機関の脅威から守るには膨大な努力必要であり、我々はその軌道に乗っていない。

IIIc.スーパーアライメント

我々よりもはるかに賢いAIシステムを確実に制御することは、未解決技術問題である解決可能問題ではあるが、急速な知能の爆発が起きれば、物事簡単にレールから外れてしまう。これを管理することは非常に緊張を強いられるだろう。

IIId.自由世界勝利しなければならない

スーパーインテリジェンスは、経済的にも軍事的にも決定的な優位性をもたらすだろう。中国はまだゲームから抜け出してはいない。AGIをめぐる競争では、自由世界の存亡がかかっている。我々は権威主義的な大国に対する優位性を維持できるのか?そして、その過程で自滅を避けることができるのだろうか?

IV.プロジェクト

AGIへの競争が激化するにつれ、国家安全保障が関与してくる。アメリカ政府は眠りから覚め、27~28年までに何らかの形で政府によるAGIプロジェクトが立ち上がるだろう。どんな新興企業も超知能を扱うことはできない。SCIFのどこかで、終盤戦が始まるだろう。

V.おわりに

もし我々が正しかったら?

――――――――

私はかつてOpenAIで働いていたが、これはすべて一般に公開されている情報私自身のアイデア一般的な現場知識、あるいはSFゴシップに基づいている。

Collin Burns、Avital Balwit、Carl Shulman、Jan Leike、Ilya Sutskever、Holden Karnofsky、Sholto Douglas、James Bradbury、Dwarkesh Patel、その他多くの方々の有益議論感謝する。初期の草稿にフィードバックをくれた多くの友人に感謝する。グラフィックを手伝ってくれたジョー・ローナン出版を手伝ってくれたニック・ウィテカーに感謝する。

イリヤスーツバーに捧ぐ。

続き I.GPT-4からAGIへ:OOMを数える(1) https://anond.hatelabo.jp/20240605203849

I.GPT-4からAGIへ:OOMを数える (9)

3.コンピュータ使用

これはおそらく3つの中で最も簡単方法だ。現在のChatGPTは、基本的に、テキスト入力できる孤立した箱の中に座っている人間のようなものだ。初期のアンホブリング改良では、個々の孤立したツールの使い方をモデルに教えていましたが、マルチモーダルモデルでは、近いうちにこれを一挙にできるようになると期待しています

まりZoomでの通話に参加したり、オンラインで調べ物をしたり、メッセージ電子メールを送ったり、共有されたドキュメントを読んだり、アプリや開発ツールを使ったりといったことだ。(もちろん、より長いホライゾン・ループモデルがこれを最大限に活用するためには、テスト時間コンピューティングをアンロックする必要がある。)

最終的には、ドロップイン・リモートワーカーのようなものができると期待している。エージェントは、あなた会社入社し、新しい人間雇用のようにオンボードされ、Slackあなたや同僚にメッセージを送り、あなたソフトウェア使用し、プルリクエストを行い、大きなプロジェクトがあれば、人間独立してプロジェクト完了するために数週間留守にするのと同等のことができる。これを実現するためには、GPT-4よりもいくらか優れたベースモデル必要だろうが、おそらくそれほどでもないだろう。

https://situational-awareness.ai/wp-content/uploads/2024/06/devin.gif

Devinは、完全に自動化されたソフトウェアエンジニアを作るために、モデル上の「エージェンシーオーバーハング」/「テストタイムコンピューティングオーバハング」を解除する初期のプロトタイプだ。Devinが実際にどの程度機能するかはわからないし、このデモは、適切なチャットボットエージェントのアンホブリングがもたらすものに比べれば、まだ非常に限定的ものだが、近々登場するものティーザーとしては役に立つだろう。

ところで、私は、アンホブリングの中心性が、商業的応用という点で、少々興味深い「ソニックブーム効果につながると期待している。現在ドロップイン・リモートワーカーの中間モデルは、ワークフローを変更し、統合して経済的価値を引き出すためのインフラを構築するために、膨大な手間を必要とする。ドロップイン・リモートワーカーは、統合が劇的に簡単になる。つまりリモートでできるすべての仕事自動化するために、ドロップインするだけでいいのだ。つまりドロップイン・リモートワーカーが多くの仕事自動化できるようになる頃には、中間モデルはまだ完全に活用され統合されていないため、生み出される経済価値ジャンプはやや不連続になる可能性がある。

次の4年間

https://situational-awareness.ai/wp-content/uploads/2024/06/overview_ooms_gpt2togpt4.png

https://situational-awareness.ai/wp-content/uploads/2024/06/overview_ooms_2023to2027.png

GPT-4に先立つ4年間の進歩原動力と、GPT-4後の4年間に期待されることについての推計のまとめ。


数字をまとめると、GPT-4に続く4年間で、2027年末までにGPT-2からGPT-4規模のジャンプが再び起こると(おおよそ)予想される。

GPT-4のトレーニングに3ヶ月かかったとしよう。2027年には、一流のAIラボGPT-4レベルモデルを1分で訓練できるようになるだろう。OOM効果的なコンピュート・スケールアップは劇的なものになるだろう。

それは我々をどこへ連れて行くのだろうか?

https://situational-awareness.ai/wp-content/uploads/2024/06/overview_counting_the_ooms.png

OOMカウントのまとめ。


GPT-2からGPT-4までで、私たちは~未就学児から~賢い高校生になった。とんでもないジャンプだ。もしこれが、私たちが今一度カバーする知能の差だとしたら、それは私たちをどこに連れて行くのだろうか?私たちは、それが私たちをとてもとても遠くに連れていっても驚かないはずだ。おそらく、ある分野の博士や最高の専門家凌駕するようなモデルまで到達するだろう。

(このことを考える1つの良い方法は、現在AI進歩の傾向は、子供の成長のおよそ3倍のペースで進んでいるということだ。あなたの3倍速の子どもは高校卒業したばかりだが、いつの間にかあなた仕事を奪っていくだろう!)

続き I.GPT-4からAGIへ:OOMを数える(10) https://anond.hatelabo.jp/20240605211837

I.GPT-4からAGIへ:OOMを数える (7)

アンホブリング

最後に、定量化するのが最も難しいが、それに劣らず重要改善カテゴリーを紹介しよう。

難しい数学問題を解くように言われたとき、頭に浮かんだことを即座に答えなければならないとしたらどうだろう。最も単純な問題を除いて、苦労するのは明らかだろう。しかしつい最近まで、LLMにはそうやって数学問題を解かせていた。その代わり、私たちほとんどはスクラッチパッドで段階的に問題を解いていき、その方法はるかに難しい問題を解くことができる。「思考連鎖プロンプトは、LLMのそれを解き放った。生の能力は優れているにもかかわらず、明らかな足かせがあるため、LLMは数学が苦手なのだ

私たちはここ数年で、モデルの「足かせを外す」ことに大きな進歩を遂げました。これは単に優れたベースモデルトレーニングするだけでなく、アルゴリズムの改良によってモデル能力を引き出すものです:

足場作り。CoT++について考えてみよう:ただ問題を解くようモデルに求めるのではなく、あるモデル攻撃計画を立てさせ、別のモデル可能性のある解決策をたくさん提案させ、別のモデルにそれを批評させる、といった具合だ。例えば、HumanEval(コーディング問題)では、単純な足場作りによってGPT-3.5が足場なしのGPT-4を上回った。SWE-Bench(実世界ソフトウェアエンジニアリングタスクを解くベンチマーク)では、GPT-4は~2%しか正しく解くことができませんが、Devinのエージェントの足場があれば14-23%に跳ね上がります。(後ほど詳しく説明するが、エージェントのアンロックはまだ初期段階に過ぎない。)

ツール:もし人間電卓コンピュータを使うことを許されなかったらと想像してみてほしい。まだ始まったばかりだが、ChatGPTウェブブラウザを使ったり、コードを実行したりできるようになった。

エポックAIによる研究によると足場作りやツール使用など、これらのテクニックのいくつかを調査したところ、このようなテクニックは多くのベンチマークで通常5~30倍の効果的な計算量の向上をもたらすことがわかった。METR(モデル評価する組織)も同様に、同じGPT-4ベースモデルからのアンホブリングによって、エージェントタスクのセットで非常に大きなパフォーマンスの向上を発見しました。

https://situational-awareness.ai/wp-content/uploads/2024/06/metr_gains_over_time-1024x597.png

METRのエージェントタスクパフォーマンス。出典モデル評価と脅威研究


これらをコンピュートとアルゴリズム効率統一した実効的なコンピュート規模に当てはめることは困難ですが、少なくともコンピュート規模の拡大やアルゴリズム効率とほぼ同規模の大きな進歩であることは明らかです。(また、アルゴリズム進歩が中心的な役割を担っていることも浮き彫りになっています。0.5OOM/年の計算効率は、すでに重要ものではありますが、ストーリーの一部に過ぎません。)

「アンホブリング」こそが、実際にこれらのモデル有用になることを可能にしたのであり、今日多くの商業アプリケーションの足かせとなっているものの多くは、この種のさらなる「アンホブリング」の必要であると私は主張したい。実際、今日モデルはまだ信じられないほど足かせが多い!例えば

ここでの可能性は非常に大きく、私たちはここで急速に低空飛行の果実を摘んでいる。これは非常に重要です。"GPT-6 ChatGPT "を想像するだけでは完全に間違っていますGPT-6+RLHFと比べれば、進歩は段違いだ。2027年までには、チャットボットというより、エージェントのような、同僚のようなものが登場するだろう。

続き I.GPT-4からAGIへ:OOMを数える(8) https://anond.hatelabo.jp/20240605210232

I.GPT-4からAGIへ:OOMを数える (5)

アルゴリズム効率

コンピュートへの大規模な投資が注目される一方で、アルゴリズム進歩も同様に重要進歩原動力であると思われる(そして、これまで劇的に過小評価されてきた)。

アルゴリズム進歩がどれほど大きな意味を持つかを理解するために、MATHベンチマーク高校生競技数学)において、わずか2年間で~50%の精度を達成するために必要価格が下がったことを示す次の図を考えてみてください。(比較のために、数学特に好きではないコンピュータサイエンスの博士課程の学生が40%のスコアを出したので、これはすでにかなり良いことです)。推論効率は2年足らずで3OOMs-1,000倍近く向上した。

https://situational-awareness.ai/wp-content/uploads/2024/06/math_inference_cost-1024x819.png

MATHのパフォーマンスを〜50%にするために必要な推論コストの概算。


これは推論効率だけの数字だが(公開データから推論するのが難しいトレーニング効率の向上と一致するかどうかはわからない)、アルゴリズム進歩は非常に大きく、また実際に起こっている。

この記事では、アルゴリズム進歩を2種類に分けて説明します。まず、「パラダイム内」でのアルゴリズムの改良を取り上げることにしま す。例えば、より優れたアルゴリズムによって、同じパフォーマンスを達成しながら、トレーニング計算量を10倍減らすことができるかもしれません。その結果、有効計算量は10倍(1OOM)になります。(後ほど「アンホブリング」を取り上げますが、これはベースモデル能力を解き放つ「パラダイム拡張/アプリケーション拡張」的なアルゴリズム進歩と考えることができます)。

一歩下がって長期的な傾向を見ると、私たちはかなり一貫した割合で新しいアルゴリズムの改良を発見しているようです。しかし、長期的なトレンドライン予測可能であり、グラフ上の直線であるトレンドラインを信じよう。

アルゴリズム研究ほとんど公開されており、10年前にさかのぼデータがある)ImageNetでは、2012年から2021年までの9年間で、計算効率が一貫して約0.5OOM/年向上しています

https://situational-awareness.ai/wp-content/uploads/2024/06/pareto_frontiers_imagenet_epoch-1024x349.png

アルゴリズム進歩を測定することができます。同じ性能のモデルを訓練するために必要計算量は、2012年比較して2021年にはどれくらい少なくなっているのでしょうか?その結果、アルゴリズム効率は年間0.5 OOMs/年程度向上していることがわかります。出典Erdil and Besiroglu 2022.

これは非常に大きなことです。つまり、4年後には、~100倍少ない計算量で同じ性能を達成できるということです(同時に、同じ計算量ではるかに高い性能も達成できます!)。

残念ながら、研究室はこれに関する内部データ公表していないため、過去4年間のフロンティアLLMのアルゴリズム進歩を測定することは難しい。EpochAIは、言語モデリングに関するImageNetの結果を再現した新しい研究を行っており、2012年から2023年までのLLMのアルゴリズム効率トレンドは、同様に~0.5OOM/年である推定しています。(しかし、これはエラーバーが広く、また、主要なラボアルゴリズム効率公表を停止しているため、最近の上昇を捕捉していません)。

https://situational-awareness.ai/wp-content/uploads/2024/06/llm_efficiency_epoch-1-1024x711.png

Epoch AIによる言語モデリングにおけるアルゴリズム効率推定。この試算によると、私たちは8年間で~4OOM効率向上を達成したことになります

より直接的に過去4年間を見ると、GPT-2からGPT-3は基本的に単純なスケールアップでした(論文によると)が、GPT-3以降、公に知られ、公に干渉可能な多くの利益がありました:

最近リリースされたGemini 1.5 Flashは、"GPT-3.75レベル "とGPT-4レベルの間の性能を提供する一方で、オリジナルGPT-4よりも85倍/57倍(入力/出力)安い(驚異的な利益!)。

公開されている情報総合すると、GPT-2からGPT-4へのジャンプには、1-2 OOMアルゴリズム効率向上が含まれいたことになります

https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute_algos-1024x866.png

GPT-4に続く4年間はこの傾向が続くと予想され、2027年までに平均0.5OOMs/年の計算効率、つまりGPT-4と比較して~2OOMsの向上が見込まれます計算効率の向上は、低空飛行の果実を摘み取るようになるにつれて難しくなる一方、新たなアルゴリズムの改良を見出すためのAIラボ資金人材への投資は急速に増加しています。 (少なくとも、公開されている推論コスト効率化は、まったく減速していないようだ)。ハイエンドでは、より根本的な、トランスフォーマーのようなブレークスルーが起こり、さらに大きな利益が得られる可能性さえある。

これらをまとめると、2027年末までには(GPT-4と比較して)1~3OOMアルゴリズム効率向上が期待できることになります

続き I.GPT-4からAGIへ:OOMを数える(6) https://anond.hatelabo.jp/20240605205754

I.GPT-4からAGIへ:OOMを数える (4)

OOMを数える

どうしてこうなったディープラーニング魔法は、それがただ機能するということであり、あらゆる場面で否定的意見にもかかわらず、その傾向線は驚くほど一貫している。

https://situational-awareness.ai/wp-content/uploads/2024/06/sora_scaling-1024x383.png

OpenAI Soraの例 計算量のスケーリング効果

効果的な計算OOMが増えるごとに、モデル予測通り、確実に良くなっていく。OOMを数えることができれば、能力の向上を(大まかに定性的に)推定することができる。そうやって、先見の明のある数人がGPT-4の到来を予見したのだ。

GPT-2からGPT-4までの4年間の進歩を、スケールアップの3つのカテゴリーに分解することができる:

1. コンピュート:計算:これらのモデルを訓練するために、より大きなコンピューターを使うようになった。

2.アルゴリズム効率化:アルゴリズム進歩には継続的な傾向がある。これらの多くは「コンピュート・マルチプライヤ」として機能し、有効コンピュート量の増加という統一された尺度に乗せることができます

3.「趣味のない」利益デフォルトでは、モデルは多くの素晴らしい生の能力学習しますが、あらゆる種類の間抜け方法で足かせとなり、実用的な価値制限されます人間フィードバックから強化学習(RLHF)、思考連鎖(CoT)、ツール、足場などの単純なアルゴリズム改善により、潜在的能力を大きく引き出すことができる。

これらの軸に沿って、改善の「OOMを数える」ことができる。つまり有効計算量の単位でそれぞれのスケールアップをトレースするのだ。3倍は0.5OOM10倍は1OOM、30倍は1.5OOM100倍は2OOMといった具合だ。2023年から2027年まで、GPT-4の上に何を期待すべきかを見ることもできる。

ひとつひとつ見ていくが、OOMの数を急速に増やしていることは明らかだ。データの壁には逆風が吹いている可能性があり、それについては後述するが、全体的には、2027年までにGPT-4の上に、GPT-2からGPT-4規模のジャンプがもう1回起こると予想される。

コンピュート

まず、最近進歩原動力として最もよく議論されている、モデルへの(大量の)コンピュート投入について説明します。

多くの人は、これは単にムーアの法則によるものだと考えている。しかし、ムーアの法則が全盛期を迎えていた昔でさえ、その進歩比較的緩やかなものでした。しかし、ムーアの法則が全盛期だった昔でさえ、10年で1~1.5OOMと、比較ゆっくりとしたスピードだった。(かつては1つのモデル100万ドルを費やすことさえ、誰も考えもしないことだった。)

モデル推定コンピュート 成長率
GPT-2 (2019) ~4e21 FLOP
GPT-3 (2020) ~3e23 FLOP + ~2 OOMs
GPT-4 (2023) 8e24~4e25 FLOP + ~1.5~2 OOMs

エポックAIによるGPT-2からGPT-4までの計算量の推定

エポックAIAIトレンドの優れた分析で広く尊敬されている情報源)の公開推定値を使用して、2019年から2023年までのコンピュートスケールアップを追跡することができますGPT-2からGPT-3へのスケールアップは迅速で、小規模な実験から大規模な言語モデルを訓練するためにデータセンター全体を使用するまでにスケールアップし、コンピュートのオーバーハングが大きくなりました。GPT-3からGPT-4へのスケールアップでは、次のモデルのためにまったく新しい(はるかに大きな)クラスタを構築しなければならないという、最新の体制に移行しました。それでも劇的な成長は続いていますエポックAIの試算によると、GPT-4のトレーニングでは、GPT-2の3,000倍から10,000倍の計算量を使用しています

大雑把に言えば、これは長期的なトレンド継続に過ぎない。過去10年半の間、主に投資(およびGPUやTPUの形でAIワークロードに特化したチップ)の幅広いスケールアップのため、フロンティアAIシステム使用されるトレーニング計算量は、およそ〜0.5OOM/年で成長してきた。

https://situational-awareness.ai/wp-content/uploads/2024/06/compute_long_run_trend-1024x968.png

注目すべきディープラーニングモデルトレーニングコンピュートの経年変化。出典エポックAI

GPT-2からGPT-3への1年間のスケールアップは異例のオーバーハングであったが、長期的なトレンドが続くことは間違いない。SF-rumor-millは、巨額のGPU受注の劇的な話で一杯だ。その投資は並大抵のものではないが、動き始めている。

この分析によれば、2027年末までにさらに2OOMsのコンピュート(数十億ドル規模のクラスター)が実現する可能性は非常に高いと思われる。さらに+3OOMsのコンピュート(1,000億ドル規模以上)に近いクラスターも可能性がありそうだ(マイクロソフト/OpenAI計画中と噂されている)。

https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute-1024x866.png

続き I.GPT-4からAGIへ:OOMを数える(5) https://anond.hatelabo.jp/20240605205449

I.GPT-4からAGIへ:OOMを数える (1)

2027年までにAGIが実現する可能性は極めて高い。GPT-2からGPT-4までの4年間で、私たちは〜未就学児から〜賢い高校生までの能力を手に入れた。計算能力(~0.5桁またはOOMs/年)、アルゴリズム効率(~0.5OOMs/年)、および「趣味のない」向上(チャットボットからエージェントへ)のトレンドライントレースすると、2027年までに再び未就学児から高校生規模の質的ジャンプが起こると予想される。


見て。モデルたちはただ学びたいだけなんだ。あなたはこれを理解しなければならない。モデルたちは、ただ学びたいだけなんだ。

イリヤスーツバー2015年頃、ダリオ・アモデイ経由)

GPT-4の能力は、多くの人に衝撃を与えた。コードエッセイを書くことができ、難しい数学問題を推論し、大学試験突破することができるAIシステムである。数年前までは、これらは難攻不落の壁だと思っていた。

しかGPT-4は、ディープラーニングにおける10年間の猛烈な進歩の延長線上にあった。その10年前、モデル犬猫の単純な画像識別するのがやっとだった。4年前、GPT-2は半可通な文章をつなぎ合わせるのがやっとだった。今、私たちは思いつく限りのベンチマークを急速に飽和させつつある。しかし、この劇的な進歩は、ディープラーニングスケールアップにおける一貫した傾向の結果に過ぎない。

ずっと以前から、このことを見抜いていた人々がいた。彼らは嘲笑されたが、彼らがしたのはトレンドラインを信じることだけだった。トレンドラインは強烈で、彼らは正しかった。モデルはただ学びたいだけなのだ

私は次のように主張する。2027年までには、モデルAI研究者エンジニア仕事をこなせるようになるだろう、と。SFを信じる必要はなく、グラフ上の直線を信じるだけでいいのだ。

https://situational-awareness.ai/wp-content/uploads/2024/06/base_scaleup-1024x790.png

過去と将来の有効計算量(物理計算量とアルゴリズム効率の両方)の大まかな見積もりモデルスケールアップすればするほど、モデルは一貫して賢くなり、"OOMを数える "ことによって、(近い)将来に期待されるモデルインテリジェンスの大まかな感覚を得ることができます。(このグラフベースモデルスケールアップのみを示している。)

この記事で取り上げた一般的推定に基づく、効果的な計算物理的な計算アルゴリズム効率の両方)の過去と将来のスケールアップの概算。モデルスケールアップするにつれ、モデルは一貫して賢くなり、「OOMを数える」ことで、(近い)将来に期待されるモデルインテリジェンスの大まかな感覚を得ることができる。(このグラフベースモデルスケールアップのみを示している。"unobblings "は描かれていない)。

この作品では、単純に「OOMを数える」(OOM = order of magnitude10x = 1 order of magnitude)ことにします。1)計算、2)アルゴリズム効率(「効果的な計算」の成長として考えることができるアルゴリズム進歩)、3)「アンホブリング」(モデルデフォルトで足かせとなっている明らかな方法修正し、潜在的能力を引き出し、ツールを与えることで、有用性を段階的に変化させること)の傾向を見ますGPT-4以前の4年間と、GPT-4後の2027年末までの4年間に期待されるそれぞれの成長を追跡する。ディープラーニング効率的な計算のすべてのOOMで一貫して向上していることを考えると、将来の進歩予測するためにこれを使うことができる。

世間では、GPT-4のリリースから1年間、次世代モデルオーブンに入ったままであったため、ディープラーニングは停滞し、壁にぶつかっていると宣言する人もいた。しかし、OOMカウントすることで、私たちは実際に何を期待すべきかを垣間見ることができる。

結果は非常にシンプルだ。GPT-2からGPT-4への移行は、時々まとまりのある文章を並べることに感動的だったモデルから高校入試エースになるモデルへの移行であり、一度だけの進歩ではない。私たちOOMsを極めて急速に克服しており、その数値は、4年以上かけてGPT-2からGPT-4への質的ジャンプさらに~100,000倍の効果的なコンピュート・スケールアップが期待できることを示している。さらに、決定的なことは、それは単にチャットボットの改良を意味しないということだ。"unhobbling "利益に関する多くの明らかな低空飛行の果実を選ぶことで、チャットボットからエージェントへ、ツールからドロップイン・リモートワーカーの代替のようなものへと我々を導いてくれるはずだ。

推論は単純だが、その意味するところは注目に値する。このような別のジャンプは、私たちをAGIに、博士号や同僚として私たちそばで働くことができる専門家と同じくらい賢いモデルに連れて行く可能性が非常に高い。おそらく最も重要なことは、これらのAIシステムAI研究のもの自動化することができれば、次回のテーマである強烈なフィードバックループが動き出すということである

現在でも、このようなことを計算に入れている人はほとんどいない。しかし、AIに関する状況認識は、一歩下がってトレンドを見てみれば、実はそれほど難しいことではない。AI能力に驚き続けるなら、OOMを数え始めればいい。

続き I.GPT-4からAGIへ:OOMを数える (2) https://anond.hatelabo.jp/20240605204240

2024-04-08

anond:20240408010741

プレスリリース          2008年7月15日

株式会社プリファードインフラストラクチャー

━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

   プリファードインフラストラクチャーはてな戦略的提携合意

  第一弾としてはてなブックマークの新機能共同開発し、本日リリース

━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

株式会社プリファードインフラストラクチャー代表取締役西川 徹/東京都

文京区)と株式会社はてな代表取締役近藤淳也京都市中京区)は、7月15日

付にて、両社の長期的な発展を目的戦略的提携をおこなうことで、基本合意

いたしました。

今回の戦略的提携により両社は、はてな運営するウェブサイトはてな」に

おいて、プリファードインフラストラクチャー保有する高度な情報処理技術

と、はてな保有する高いインターネットサービス開発能力を組み合わせ、

ユーザーにとって価値が高く、新規性のあるサービス開発をおこなうことで、

両社のさらなる発展とインターネット分野における成長を目指します。

提携の具体的な成果として、本日ソーシャルブックマークサービス

はてなブックマーク」にて「関連エントリー表示機能」をリリースしました。

機能については、本年6月に両社が初めて実施した共同開発合宿によって生ま

れた第一弾の成果となります

はてなブックマーク関連エントリー表示機能」について

http://b.hatena.ne.jp/

機能は、プリファードインフラストラクチャー保有する類似情報抽出エン

ジンを元にはてなとの共同開発により、製作された類似記事抽出機能です。

機能の大きな特徴として、はてなブックマークのある記事におけるエントリ

ーページを閲覧すると、「そのエントリーに関連する他のエントリー」が表示

され、ブックマークされた該当記事 (エントリー) に関連する他のエントリ

を高い精度をもって発見することが可能となります

例えば、タイムリーに盛り上がっている議論ブログ関連エントリーとして、

同様の議論議論のサマリなどが一覧で見ることができる、あるいはコンピュー

タについて書かれた技術エントリからは、類似する他のテクニック

発見できるといった、利用者がより多くの価値ある情報出会える機会をも

たらす新機能といえます

両社では現在さら新規性の高いシステムの開発にも取り組んでおり、今回

リリースした機能にとどまらず、今後も継続的共同開発をおこない、ユーザ

ーにとって価値の高い新機能新サービスを創出していく予定です。

https://web.archive.org/web/20080720142725/http://preferred.jp/index.html

2024-02-13

anond:20240213050140

俺の中ではコンピ研にドロップキックしたハルヒ許容範囲だけど自販機蹴ってジュース盗んでる御坂美琴許容範囲外だわ

前社の方が人間蹴っ飛ばしてる分罪は重いはずなんだが自分でも不思議

2024-01-24

anond:20240124143616

セルフコメ追記

http://m-sugaya.jp/sci-fi.htm

https://web.archive.org/web/20190804191818/http://m-sugaya.jp/sci-fi.htm

第二次世界大戦後、「Famous Monster Magazine」を編集していたフォーレスト(フォーリー)・J・アッカーマンという編集者が、ステレオの「Hi-Fi(ハイファイ)」の発音にヒントを得て「Sci-Fiサイファイ)」という「Science Fiction」の略語を生み出しました。これがウェブスター辞典いうところの1955年なのでしょう。アッカーマン氏は、自分の車のナンバープレートも「Sci-Fi」にして、この言葉の普及につとめたようです。

 アッカーマン氏はファンジンの祖としても知られている人でして、日本ではマンガ主人公になったこともありますが(^_^;)、コンピサーブ会員の説明によると「(もちろん本人は認めないが)クズSF映画(trashy sf movies)」の愛好者で、彼がこれらの映画に「Sci-Fi」の名前を冠したため、一般メディアは、ゴムぬいぐるみが出てくるモンスター映画のようなもの総称して「Sci-Fi映画」と呼称するようになったのだとか。

2001年宇宙の旅からスターウォーズ」までの期間の前後は、「Sci-Fi映画」といえば目玉の大きなグロテスク宇宙人ロボットなどが出てくるホラー系、モンスター映画代名詞となっていた(いる)のだそうです。

 さら60年代に入ると、出版業界の中で、モンスター映画に似た安っぽいSF小説を「Sci-Fi」と書いて「Skiffy(スキッフィー)」と呼称するようになったのだそうで、「サイファイ」と並行して「スキッフィー」もポピュラー呼称となっていったようです。

Sci-Fi(スキッフィー)」という呼称には、多分に侮蔑的ニュアンス、あるいは自嘲的な意味合いも含まれていたようで、ジョークの中には「SFファンの前でスキッフィーというときは、逃げ出す準備をしてからしろ」というようなものであるそうです。

このような経過を経たせいか、「Sci-Fi」には屈辱的、あるいは差別的ニュアンスがつきまとうようになり、SF作家の中には「Sci-Fi作家辞典」への掲載を断ったりする人も出てきたのだとか。

 そのためコンピサーブの「Sci-Fiフォーラム」は、その名称を「SF/Fantasyフォーラム」に変更し、「GOコマンドからも「GO Sci-Fi」が消えることになったとのこと(1990年頃のことらしい)。ここでいう「SF」とは、「Science Fiction」であり、また「Speculative Fiction」であり、ハインラインクラーク伝統を引き継ぐ作家作品を指しているようです。ちなみにニューウェーブサイバーパンク作家名は出ておりませんでした。

 ただし、ここで留意しないといけないのは、コンピサーブは元もと料金が高かったこともあって会員の年齢層と地位も高く(これを称して「コンピサーブの3高(c)Mitsuru Sugaya)」という)、大半のフォーラムではハンドルが使えないなど、保守的オンラインサービスとしても知られているところです。

 ……てなことを書いていて、またコンピサーブアクセスしたら、最近までは使えなかった「GO Sci-Fi」が復活しておりました。「SF/Fantasy Forum」グループメニューが出てきますコンピサーブもAOL親会社になったことで、ポリシーを変更したのかな? それとも前に探したときタイピングミスしたのかな?

 しかし、このコンピサーブの「Sci-Fi」に関する議論は、なんとなく「ハッカー」についての議論を思い浮かべてしまいました。はい、「ハッカークラッカーを一緒にするな」というアレでございますケーブルテレビにも「Sci-Fiチャンネル」という、24時間連続SF系のテレビ映画などを放映しているテレビ局もあるくらいですから、すでにアメリカでは「Sci-Fi」という言葉市民権を得ているといってもいいのでは……なんて思っちゃうんですよね。これも、「面白ければSFでもSci-Fiでもかまわない」というこだわりのなさからなんでしょうが

 15年ほど昔、手塚治虫先生に、「最近、『ゲームセンターあらし』は、すっかりSFになってますねえ」と言われ、「げえっ! 手塚先生が『コロコロコミック』まで読んでるう!」とビックラこいたものでしたが、そのとき「スキッフィー」という言葉を知っていたら、「いえ、ぼくのマンガはスキッフィーです」と言えたのになあ。あのマンガで目指していたのは駄菓子屋マンガだったから。

すがやみつる(1999/3/20記:1999/8/2一部書き足し)」

😌スッキリした

2023-12-31

anond:20230901150609

NON-EDIT TALK : MY LITTLE LOVER featuring AKKO華原朋美

華原:

こんばんは、華原朋美です。今日7月り2日です。うーん? そろそろ夏ですかね。7月って言えば……、そうですね、夏ですかね、やっぱり、これから先は。今日の私の格好を見ても夏っていう感じなんですけども、みなさんはいかがですか? 今日ゲストは、私、すっごいドキドキしてますMY LITTLE LOVERAKKOさんです。よろしくお願いします。

AKKO:

よろしくお願いします。

華原:

いやぁ。

AKKO:

今日すごいね、楽しみだったんです。

華原:

私もすごい楽しみだったです。ヨーグルトドリンク好き? 

AKKO:

いや、なんか夏にはぴったりかなって。

華原:

今日はじゃあ、ヨーグルトドリンクで。

AKKO:

朋ちゃんも真似したんですか?

華原:

はい、真似しました。

AKKO:

好きですか? 

華原:

ちょっと飲んでみます。美味しいです。

AKKO:

いい感じ? 

華原:

いい感じです。

AKKO:

ちょっとね、ビフィズス菌とらないとね。

華原:

ああ、やっぱり女性ですね。なんか、女ですね。

AKKO:

そうですか? いやいや、朋ちゃんもね。

華原:

いちおう、女を装って。あの、今日は、いろいろ聞きたいことがたくさんあるんだけど、歌を歌うのにつながる今までの人生ってあるじゃないですか。

AKKO:

うんうん、うん。

華原:

でも、いろいろなスタッフの人から話を聞くと、情報を集めたんですよ。昔は音大に通ったり。

AKKO:

はいはい

華原:

これは私もそう思ったんですけど、バレエを。

AKKO:

うん。ちょこっとね、バレエは。

華原:

そうですか。

AKKO:

朋ちゃんはやってたんですか? 

華原:

やってたんですけどね。

AKKO:

私ね、新体操やってたんですよ。

華原:

新体操って、これ? 

AKKO:

うそう、リボンとかボールとかなんだけど。だから新体操の基礎ってバレエから、それでちょっとね、やってました。

華原:

リボンやりながら歌いました? 

AKKO:

歌わないよ。

華原:

歌わないですよね。私は機械体操やってたんだけど。

AKKO:

あ、本当に。

華原:

うん。あの、平均台10cmぐらいしかないんですけど、そこの上で転回やったりとかしてたんですけど。

AKKO:

危ないですよね。

華原:

危ないですよ。

AKKO:

怖いですよね。

華原:

落ちちゃった時とか、もうどうしょうもないほど痛かったんですけど。

AKKO:

なんかね、歌ったり踊ったりがとにかく好きで、ずっと。ちっちゃい頃から。だから新体操、まあ踊り、とにかく一回ハマって。まあ、それを終えて、「今度は歌か」と思って。音楽大学行って、声楽とか勉強して今に至るんですけどね。

華原:

やっぱり、音楽っていうものに関しては、自分は生まれつきすごく「それしかない!」って思ってたところってありますか? 

AKKO:

いや、「それしかない!」っつうよりも、本当にただただ好き。好きでたまらない、楽しくてたまらないものが、本当に踊りと音楽だったんですよ。でも、ちっちゃい頃からね、「みんなの歌」とかなかった? ああいうの片っ端から歌ってみたりとかね、一人で勝手に部屋で歌ったりとかね。本当、それだけでもすごい楽しくって。

華原:

あの、私も「みんなの歌」みて歌ってても、私は一人で歌ったりとか出来なかったんですよ。みんなで合唱とかやった時、一回だけ自分一生懸命歌えるっていう感じで、あの、その本を見た時、いちばん初めの印象ですけど、本を見た時に、恥ずかしいなって思っちゃったんですよ。そういうのってないですか? 

AKKO:

わかるわかる。

華原:

なんか、「これ、私が自分で歌うんだ」って思った瞬間、すごい恥ずかしくなって。

AKKO:

でも、だって、隠れて歌っちゃえばいいじゃん。そういうのは思わなかったの?

華原:

なんかね、隠れてね、するっていうのはあんまり出来なくって。

AKKO:

私、逆にね、合唱とかのほうが恥ずかしかたかな。なんか、となりの人の声と聞こえたりするじゃない。で、自分の声とかも聞こえちっゃたりするのが。それだっら、なんか一人で歌ってたほうが、なんか好きだったかもしれない。うん、そうだなうん。

華原:

それはすごいプロですよね。なんか、私はそう思うんですけど。あの、合唱コンールの時に………、ごめんなさい、私の話で。

AKKO:

ううん。

華原:

合唱コンクールの時に、あの、ソプラノパートを歌ったんですよ、私。で、ソラノのパートを歌える人がそんなにいなくて、私ともう一人ぐらいしかいなかったんすよ。

AKKO:

あら。

華原:

それじゃあもう声が、今から考えるとね、声が届かなくてしょうがなかったのになんでソプラノとかを歌えたのかな? って。恥ずかしいと思いながら声を出すってうのは、すごく見てる人が楽しむところなのかなって、今は思うんですけど。

AKKO:

なんか、見てる人も歌ってるほうも楽しいよね、歌とかってね。

華原:

踊り踊るのと歌を歌うのって、とにかく好きだし。私も踊るのも好きだし、歌うも好きなんですけど、でも、それを一緒にするのはなかなか難しくて。で、いつもフンの人から手紙とかもらって、そこに書いてある文章を読んだりすると、「左手、右が、どうしてこんなに動くんですか?」って。私はあの、「それは振りですか?」ってかれるんですけども、「振りじゃなくて勝手に動いちゃう」っていうふうに言うんでけど。で、ビデオ見たんですよ。

AKKO:

何の?

華原:

全部。

AKKO:

プロモーションクリップ? 

華原:

はい、全部見ました。

AKKO:

ありがとうございます

華原:

あの、ちゃんリズムもとれてるし。

AKKO:

いやぁ、私はもうぜんぜん。

華原:

いいなぁとか思ったんだけど。

AKKO:

いやいや、私もやっぱり、まだやってみたことはないけど、踊りと歌を合わせるって、まだ自信ないなぁ。やってみたいけど。ジャズダンスとかも、多少習ったりとしたことあるけど、難しいよね。

華原:

難しいですよね。あの、アルバムの中で、アルバムの中じゃないけど、♪いつかHEY! HEY! HEY! ~って、あるじゃないですか。

AKKO:

デビュー曲なの。

華原:

あれ、私、すっごい好きなんですよ。

AKKO:

あ、本当に。

華原:

私、あれ聴いて、「いつかはHEY! HEY! HEY! に出て上いってやろう」とかってました。

AKKO:

あれ? その頃ってまだデビューしてないんでしたっけ? 

華原:

いや、いろいろしてる時期だったんですけど。

AKKO:

あ、そうか、そうか。でも、いい歌詞ですよね、なんか。意外と前向きだしね。HEY! HEY! HEY! ~とかいって投げやりな感じだけど、じつはね、かわしてる感じでもんね。

華原:

あの歌はすごいいいですね。あと、「Hellow again」もうメチャクチャ好きです。

AKKO:

あ、本当に。いやぁ、嬉しい。

華原:

プロモーションビデオ見たんですけど、半袖でマフラーをしてるじゃないですかAKKO うん。

華原:

それは、やっぱりあのマフラーには何かあるんですか? 

AKKO:

いや、私が考えついたことじゃないんですけど、その時のアートディレクターの藤さんていう方がいて、その方がなんか発想して。そういうふうにTシャツバーバーマフラー。すごい可愛いですよね。

華原:

可愛いなって思いましたね。

AKKO:

もびっくりしちゃったんですけど、でも、それはその人の。

華原:

なんかあれですよね、「Hellow again」っていうのは、昔からある場所。昔かに場所っていうのは、AKKOさんの中でどういうところですか? 昔からある場所

AKKO:

からある場所? どういうところなんだろうな? けっこう冒険が好きなんで、んまり留まってないんですよ、私。だからね、ちょっと。ごめん。

華原:

ううん。あの、私は自分であの曲を聴いて、自分が、朋ちゃんが昔からある場所ていうのはどこなんだろう? っていうふうに探しちゃったんですけど。

AKKO:

どこでした? 

華原:

わかんないですけど。昔からある場所って実家かな? とか思ったんですけど。

AKKO:

それはでも、私も思った、一瞬。実家かな? って思ったけど。結局なんか、自ベース気持ちだったりするのかな、とか思ったけどね。わりと私は、なんか楽しくきようっていうのがベースにあるんですよ。

華原:

いいですね。

AKKO:

笑って生きようとか。一度しかないし、人生。だからなんか、そういうのが私のレイスというか、場所なのかなって、今ちょっと思ったけど。

華原:

いいですよね、なんか。転調の部分とかも、すごい綺麗ですよね、「Hellow agan」とかね。

AKKO:

ありがとうございます

華原:

あの、最近女の子を……。

AKKO:

いきなり変わりますよね。

華原:

すいません、ごめんなさい。私、気性が荒い人だから

AKKO:

大丈夫です。気性なんですか? 

華原:

気性? あの、何を話すのか忘れちゃった。

AKKO:

ごめん。邪魔しちゃったね。

華原:

最近はあの、女の子まれて。

AKKO:

そうなの。

華原:

おめでとうございます

AKKO:

ありがとうございます

華原:

憧れですよね。

AKKO:

本当? 

華原:

女の人として、憧れの場所ですよね。

AKKO:

本当? 

華原:

私はそうなんですけど。AKKOさんってお呼びしても? 

AKKO:

もう「AKKO」で。

華原:

AKKO」で? 言えないっスよ、そんな。AKKOさんは、あの、あれですよ、歌をて、それで売れて。それから女の人として、私が勝手に言うことですけど、女の人とて結婚して、子供を産んで、それで生活をして。それでも歌を歌い続けるっていうの、すごくいいスタイルですか? 

AKKO:

いや、もうメチャメチャいいですね。

華原:

それは、昔から描いてたことですか? 

AKKO:

いや、1mmも描いてないですよ。

華原:

1mmも? 

AKKO:

そんなの想像できないでしょ? 普通。ちっちゃい頃なんてそんなこと。ある意ゃ、すごい派手なことだし。でも、まあ、普通の営みだと思っちゃうんですけど、私。たまたま

華原:

お姉さんですね。

AKKO:

え? いやいや。将来、本当に愛する人結婚して、その愛する人の子供が産いっていう夢はずっとあったけど、それがこういう状況で起こるとはぜんぜん思ってかった。

華原:

今日子供は? 

AKKO:

今日ベビーシッターさんに預けてきたの。

華原:

すいません、なんか。

AKKO:

大丈夫大丈夫

華原:

今日、本当に忙しい中を来ていただいて、すごく嬉しいです。

AKKO:

いやいや。本当に私も今日は楽しみだったんで。

華原:

あの、あれですよね。子供を産んで歌を歌うじゃないですか。声、変わりました

AKKO:

声? 声っていうよりも、なんか表現の仕方がすごい変わったような気はする、の中で。もうちょっと振り幅が持てたような気はしてますけどね。産んだ後レコーデングしてみて。

華原:

私は、そういう経験したことないんですけど、初めての人ですよね? なんと。あの、曲を書いてくれる人と結婚して、それで子供を産んで、幸せな家庭を築きなら、温かい歌をみんなに伝えるっていうのは、すごく初めてな。

AKKO:

今までそういう人、いなかったんですかね? どうだろう?

華原:

私はそういう、こういうふうになった人を目の前にして話しをするのは初めてなですけど。

AKKO:

でもね、そんなすごく見えるけど、ぜんぜん本当にただ普通のことをやっているけで。まあ、そういうことの影響が全部歌に出たりとかね、普通するし。もちろんすい前向きに楽しく生きようっていうパワーは多分出てるんだと思うんだけど。でも、から本当、私は普通なんだよ。

華原:

いや、普通の人じゃあ、できないことをやっている人だから

AKKO:

そうかなぁ?

華原:

すごくその、こういうさっきのが、私から見ると温かいふうに見えて仕方がないす。

AKKO:

そっか。

華原:

それをそのまま、べつに隠す必要もないし、それを一番として先頭に立ってる人もないし。そこがなんか、AKKOさんのいいところで。

AKKO:

そうかな。でも、そう言われるとすごい嬉しいです。

華原:

すいません、自分で喋ってて、なに言ってるのかって思っちゃって。

AKKO:

いやいや、でも、すごい嬉しい。そっか。

華原:

そうですね。なんか「ANIMAL LIFE」っていうCD聴きました。

AKKO:

ありがとう。どうでした?

華原:

それを聴いてても、すごくいいですよね。

AKKO:

いいですか? 

華原:

はい。私はあの、AKKOさんの声っていうの、すごく気持ちがいいんですよ。

AKKO:

あ、本当に? すごい嬉しい。

華原:

聴いててすごく気持ちがいいし。で、私が一番気持ちがいいなって思うところと緒です。あの、私がいちばん気持ちいいと思うところは、安心して休めて眠れるってうところが一番すごく気持ちがいいとこなんですけど。そういう時にAKKOさんの声をくと、さらに。

AKKO:

子守歌のように? いい感じ?

華原:

すごくそういう声を持ってるなって思ったんですけど。

AKKO:

ああ、嬉しいです、そんな。

華原:

どこから出てるんですか? 

AKKO:

いやいや、そんな。こっちが聞きたいよ、朋ちゃんの高い声とか。すごいパワーる声とか。

華原:

パワーは、AKKOさんのほうがすごく優れてると思う。

AKKO:

いやぁ。でも、正反対な感じですよね、私たちの声ってね。今、思ったけど。

華原:

そうですよね。裏返したらとか、表にしたらとか。べつのところにあるし。

AKKO:

なんかね。

華原:

から、私にはない声だし、私がすごく欲しいなって思っても、ぜったいに手のかないところにあるし。それは間違いないですよね。

AKKO:

いや、私もだって、ぜんぜん届かないところにいるのと同じだもんね。なんか武さんとかは、声、いろんな声質を持ってるっていつも言ってくれるんだけど。変化球投げれるとかね。でも、ノーコンだって言われちゃうんでけど。だけどまあ、それが分、私のいいところで。朋ちゃんはでも、やっぱりすごい高い音域とか、すごい音域出て。で、もう本当にすごいパワフルだと思うんですよ。

華原:

じゃあ、お互いそういうふうに思ってるところってあるのかな。

AKKO:

うん。やっぱりね、持ってないものとかね。

華原:

持ってないものって欲しいよね。

AKKO:

欲しくなりますよね。

華原:

何でもそうだよね。洋服で、すごく可愛い服が店頭に飾ってあって。で、それ欲いなって思っても、お金がなかったりして買えなくて。で、本当は届きそうなところのに届かなかったりとかって思いませんか? なんか。

AKKO:

え? 届きそうなところに届かないと言うのは? 

華原:

なんか例えば、例えばっていうか、カラオケとかします? 

AKKO:

最近ぜんぜん行ってないよね。

華原:

カラオケとかで、私、「Hellow again」とか歌うんですけど、あれもすごいですね。男の子女の子がいても、絶対自分はウマく聞かせなきゃいけないっていうとろに、気持ちが届くんですよ。だけど、AKKOさんの声には絶対届かない。届きそうでかないみたいな。

AKKO:

ああ、そういうことか。

華原:

からMY LITTLE LOVERAKKOはいいっていうふうに思うんですよ。

AKKO:

やっぱでも、人にはその、全部万能な人なんていないからね。なんだろう? 自ね、出来る範囲を広げつつも、その中でベストを尽くすのがいちばん素敵だよね。なんつって。

華原:

素敵。

AKKO:

いつもそう思ってるんだけど。

華原:

素敵な人ですね。一番はじめにAKKOさんていう存在を知った時、私は「あ、絶対バレエとかやってる人だな」って思いました。

AKKO:

あ、本当に。

華原:

まだ、声とかは聞いたことがなかった時で、MY LITTLE LOVER

AKKO:

今日ね、たまたまね、本当たまたまなんだけど、昔の取材の時の切り抜きとか事所とかに置いてあったりするじゃない。それをなんかちょっと必要があって調べてたね。そしたら、デビュー当時の写真とか載ってるわけじゃない、その雑誌の切り抜きから。それ見たら、もうすごいポッチャポチャで。私、びっくりしちゃったんだけど「うわぁ、やめて!! 捨てたい」とか思ったんだけど。いや、でも、あの頃はやっぱ、かなり丸くて。もう慌ててトレーニングとかして。

華原:

トレーニングをしたの!? 

AKKO:

うん。ちょっとダイエットじゃないけど、スポーツクラブとか通ってね。だいぶの頃よりはスマートになったと思ってるんだけど。

華原:

カッコいい女性になりましたね。

AKKO:

そうですか? あら。

華原:

そういう感じがする。

AKKO:

ああ、そうか。前なんかキャピキャピっていう感じでしたもんね、けっこう。そいうんじゃなくて? 

華原:

全体的に、なんか楽しい感じの人だなっていうふうには思った。で、今、会ってそれは本当だった。

AKKO:

面白く生きなきゃね。

華原:

AKKOさん、そういうふうに思ってるじゃないですか。で、私はそういうふうに思てるところもあるんですけど、時々くじける時がある。「こうじゃダメなのかな?」てなっちゃう時ってない? 

AKKO:

いや、あるよ、もちろん。あるけど、うーん? あるけどなんかね、そういう時向きなことを考える。

華原:

前向きなこと。

AKKO:

うん。

華原:

趣味植物栽培やってるんですよね?

AKKO:

そう。最近ね、ちょっとあんまり家を空けることとかやっぱり多いじゃないです。海外撮影とか行ったりとか。だからね、あんまりしてないんだけど、前はよく育てた。

華原:

なんか、ロサンジェルスに住んでたり、日本に住んでたりっていうのがすごく多って聞いたんですけど。

AKKO:

うそう。朋ちゃんロサンジェルス多かったりします? 

華原:

多かった時期ありましたね。ロスにずっといた時期とかありましたけど。

AKKO:

そうか、そうか。ロス多いんだけど、寂しいんですよ。友達とかね、あんまりいいじゃないですか、やっぱり。

華原:

英語って喋れます? 

AKKO:

喋れないです。

華原:

私もぜんぜん喋れないです。

AKKO:

でも、日常いちおう困らない? 困らないよね、スーパーとか簡単だもんね。そうのは大丈夫なんですよね。そうですよね、ロスとかでね、一緒とかになれたらと、ふと思ったんだけど。

華原:

思うよね。私もすごい思う。

AKKO:

けっこうね、そうだね。アメリカ人友達とか出来にくいもんね。

華原:

外人て、なに言ってるかわかんない。

AKKO:

私もさ、すごい愛想いいっていうかさ、やっぱりアメリカ人と喋って、自分で勉しようと思うじゃない。だからアメリカ人の人と一生懸命喋るのよ。で、前にニュヨークにいたんだけどね、その時は。まあ、妊娠中だったにも関わらず、そこのドアーイいるじゃない、コンドミニアムとかだと。そのドアボーイが、しきりに「今日、事に行こう」とかね、すごいもういっぱい誘ってきて。私、妊婦なんだけど、「I'm regnant」とかって言ってるのに、ぜんぜん通じてなくって、すごい困ってたことかせった。困っちゃうよね。

華原:

困りますよね。

AKKO:

微妙発音とかで、けっこう通じなかったりするしね。

華原:

妊娠中にニューヨークで、そう困ってるって想像つかない。

AKKO:

本当? 

華原:

誰か一緒にいなきゃって思いますけど。

AKKO:

一人でわりとね、フラフラ遊んでたんじゅゃなくてね。

華原:

ニューヨークレコーディングが多いって聞いたんですけど。

AKKO:

その時はね、武史さんがちょうどMr.ChildrenYEN TOWN BANDレコーディング行ってて。で、私は妻ですからついてって。その間、多少撮影があったりとかしててあとは英会話学校とかちょっと行ってたりしたんですよ。

華原:

英会話学校

AKKO:

うん、ちょっとね。そう。だから、わりと一人で雪道とか。冬だったんでね、吹の中あるいて。

華原:

吹雪? 

AKKO:

いや、すごいんだってニューヨークのね、去年30年振りの大寒波かいって、雪で。もうそんな中ね、歩いて行ってたよ、ダウン着て。防寒して。一回だけね、セトラルパークの横でね、氷に滑ってね、尻もちついて。妊婦ってね、尻もちついちゃけないのね、絶対ね。で、もう、すごいびっくりしてね、泣いちゃったことあったけね。

華原:

子供が お腹にいる時期って、歌を歌いました? 

AKKO:

歌った。レコーディングした。

華原:

レコーディング? 

AKKO:

「Yes」とか。

華原:

Yes~ってやつですよね? 

AKKO:

うそう、そうそう。いや、なんか不思議な感じだったけどね。

華原:

雑誌で、「子供にどんな音楽を聞かせましたか?」って、妊娠中に。それで「妊にアルバムの曲を聞かせるといいですよ」って書いてあったんですよ。

AKKO:

あ、はいはい

華原:

そうなんですか? 

AKKO:

アルバムの曲っていうか、何でもいいんだけど。自分が気に入った曲を、胎教にさそうな曲を、たまたま私が聞かせたのが「Evergreen」っていう。「Evergreen」のの一番最後の曲で。それを毎日毎日聞かせてたら、産まれからね、その子がどんな機嫌が悪くても、どんなに泣きじゃくっても、それを聞くと機嫌が直るんだよっていのをね、聞いてたんですよ。だからEvergreen」聞かせてて。で、産まれからもっぱり聞かせるとすごいご機嫌になる。びっくりしちゃったんですけど。

華原:

あの、「アリス」っていう曲あるじゃないですか。呪文かけてますよね。あれ、いですよね。

AKKO:

あれ、なんかコンピューターのね、「ディギディギディギ」とかってなるじゃな。私もよくわかんないんだけど。あれをとったものなんですけどね。

華原:

あ、そうなんですか。私はなんか。

AKKO:

呪文っぽく思った? 

華原:

呪文かけてるのかなって。

AKKO:

三角とかバツとか丸とかって。

華原:

あいうのって、なんて歌えばいいのかなって。

AKKO:

わかんないよね、最初ね。けっこう質問された、最初。でも、なんか、コンピュターなんですって、もとは。私もね、機械弱いんでね。

華原:

私も弱いです。

AKKO:

難しいですよね。

華原:

難しいですよね。インターネットとかやります?

AKKO:

じつは、ホームページちゃんと持っててね。

華原:

あ、すごい。

AKKO:

一時期ちゃんと向かったことがあるんですけど、ちょっとプロモーション忙しくって、中断しちゃった。

華原:

私も今、中断してますね。

AKKO:

あ、でもやってたんだ。

華原:

あの、ファンの人からメールがきたりとかして、それを見て、返せる人には返しっていうふうにやってたんですけど。難しいですよね。

AKKO:

ね、難しいよね。でも、けっこう面白いんだよね、ああいうのを見ると、Permalink | 記事への反応(2) | 03:08

2023-11-24

AGIもう完成してるって噂あんのか

Transformerが生まれから一気にブレイクスルーしすぎだろ

とはいえまともにスケールさせるにはコンピュートリソースが足りないと思うんだけど、どうなんだろうか

2023-11-17

anond:20231117165602

増田の補足説明するね

宮迫博之営業活動自粛後、Youtuberとして復活、2022年焼肉店「牛宮城」をオープンした。オープン前に好悪両面で話題になりすぎた反動現在ほとんど話題にはなっていないが、元相方蛍原をイジるネタとして2023年にもEXアメトーーク」などで時折使われる。

テレビ千鳥宮迫さんのラブ・イズ・オーバーちゃんと聞きたいんじゃ」で、千鳥ケンコバFUJIWARA原西が、最後まで真剣に聴こうとするも毎回吹き出ししま20回挑戦するも最後まで聴くことができなかった。

https://news.yahoo.co.jp/articles/cacec05ce1a547c2698192c37784cfd134822462

島田珠代 EX徹子の部屋」で9月持ちネタパンティテックス」を披露。「徹子の部屋」は「芸人殺し番組」として「アメトーーク」で何度か話題になっており、そのつながりか。

徹子の部屋」で夫との死別や娘との9年別居、2度目の結婚と壮絶半生を語り、パンティテックからの振り幅も相まって神回話題に。

https://www.cyzo.com/2023/09/post_356968_entry.html

草刈正雄アローン・アゲイン1976年日本語カバーで作られた曲が20年ほど前、伊集院光TBSラジオで「おバ歌謡」として見出されてコンピアルバムで再発売された。2023年にそれを挙げた理由はわからない。

NHKファミリーヒストリー」で、母から朝鮮戦争戦死した」と聞かされていた元米兵父親が実は長く存命していた事実が明かされた。日本に残された側として複雑な表情をみせる草刈氏の姿もあり、屈指の神回だと話題に。

https://www6.nhk.or.jp/nhkpr/post/original.html?i=39493

anond:20231117165602

続き

(さらに続く)

http://jiyujoho.a.la9.jp/urak23.htm

2023-09-11

anond:20230911095418

市場ばかり見て、企業の内部環境(コンピタンスや資産等の経営資源)は軽視。

新市場に新製品をぶっこむ方向に経営資源を全振り。新市場に新製品をぶっこむのはそもそもリスクが高いし、それに対して経営資源を全振りするのも、その経営資源親和性が低いのも、リスクさらに高めてる。

コンサル社長もアホ。

2023-05-30

anond:20230530110642

35歳だけど、6歳や7歳の頃、浜ちゃんはわかるけど松ちゃんはわからない

って友達が9割だった

ウンナンとんねるずコンピ二人とも幼児にまで絶大な知名度を誇ってたというのに

あと松本人志好感度の低さが異様なレベルだった。

若い男性からは人気あったけど他からとにかく嫌われてた。浜田と大違い。

週刊誌からもしっかり松本人志だけ叩かれて笑いものにされてて幼ながらに何でこの人ボケなのに敵だらけなんだろと不思議で仕方なかった

2023-04-15

anond:20230415165004

それは民事場合警察場合に発行されるのは「捜査関係事項照会書」という奴で来る。

これは令状ではないので、警察意向だけで発行できる。

刑事訴訟法定義されている手続きなので、これが来た場合さらプロバイダ責任制限法の扱いでも無条件に開示して何ら罪に問われることはない。

そのまま開示するのが普通

もちろん令状ではないとして拒否することは可能だが、これに応じなかったら普通に令状が来るだけ。

そんで、下手に隠蔽意図があると思われると、サーバコンピュターの物理押収といった事にも発展しかねないので、紹介書が来た時点で応じるのが普通

例えば、公共性の高い告発に対する名誉毀損罪とかだったら、はてなは戦うこともあるだろう。

だけど、誰かに死を迫るようなコミュニティガイドラインにも反している書き込みで戦うわけないだろ。

2022-12-29

私の2022年邦楽TOP10

今回も自分語りしかない

10 - 6

Victoria / TWEEDEES

Cymbalsベースだった沖井礼二シンガー清浦夏実によるユニットTWEEDEESより、今月リリースされたアルバム「World Record」 帯の元ネタThe Style Councilらしい

そんなアルバムの中からの1曲目 いきなりスキャット!鐘!豪華な編曲沖井礼二ベース!最高~

こうやって12月中に名曲が出てくることがあるので、12月の初めに今年のまとめみたいなことするとちょっと勿体ないんですよね

TODAY FOR TOMORROW / CASIOPEA-P4

神保彰の脱退後、新たなドラムスとして有形ランペイジメンバーでもある今井義頼を迎えCASIOPEA-P4名義でリリースされたアルバム「NEW TOPICS」のこちらも1曲目

ジャパニーズフュージョンアルバムがこういう景気いい曲で始まると本当に楽しい

思いがけず雨 / Nagakumo

大阪拠点活動し自らをネオネオアコと呼ぶ2021年結成のバンドNagakumo

ネオネオつけてどうするんだと感じもありますが、これを聞くと続けて「three cheers for our side」も聞きたくなります 本人たちもフリッパーズ・ギターからの影響を公言しています

帰り道 / 阿佐ヶ谷ロマンティクス

今度は阿佐ヶ谷 2014年結成の5人組バンド阿佐ヶ谷ロマンティクス

今回のアルバム大人幻想」はSpotifyでは別の曲がグローバルでバズっていますが、個人的に一番刺さったのはこっち

ピアノで盛り上げるタイプバラード サビ直前のキメで一人だけ弾き続けちゃうベースも好き

Call me back / 松任谷由実 with 荒井由実

6位にユーミン

過去自分の声を合成音声で再現して今の自分と一緒に歌うという面白い作品 過去もともあったメロディーに新しく歌詞をつけたとのこと 単に楽曲を聞いただけでも良いし、こういう新しい挑戦をしていることも良い

で、やはり気になるのは「どこの技術を使った合成音声なのか」というわけで、ラジオでは曲は流れてもそんな話は出てこないしググっても出てこない。もしかして歌詞カードにちらっと書いてあるのかもと思って今回のベスト盤発売まで待つわけです。いよいよリリースとなっていざ歌詞カードを開いてみると、全国のラジオリスナーから集められたユーミンにまつわる思い出話が多数掲載されてるのに結局技術的な話は何もない。そんな……と思ってこのタイミングでもう一度検索してみると、CDフラゲ日になってやっと(協力した研究室の)プレスリリースが出ていました

https://www.i.u-tokyo.ac.jp/news/press/2022/202210032121.shtml

どうしてどうして……

5 - 1

BADモード / 宇多田ヒカル

ラジオではじめてこれ聞いた時はこんなん出されたら誰も勝てないじゃんと思いましたが結局5位

そういえば宇多田ヒカル新曲がすごいみたいな話を年上の人としたんですけど、あの人の親を誰だと思ってんのみたいな返答されたんですね。そうじゃなくて私はこの曲そのものが好きなんですよ。ど~せ私はAutomaticすら後追いで聞いた若造ですよ~~

鏡の中のアクトレス / 寧音

恥ずかしいことにこの作品を聞くまで原曲を知らなかったのですが、中原めいこ1988年アルバムから表題曲カバーです

深いリバーブに気だるそうなボーカルキラキラしたブラスシンセ並行世界80年代みたいなサウンドがいい味出していますが、シンガーの寧音は2008年まれ

編曲のevening cinema原田夏樹はRainychのカバー作品担当していましたね evening cinema名義でも今年アルバム出てるんですがこっちも良かったです

完全に狙って作ってる感じのジャケも必見

ちなみに原曲も今年CDが復刻してます

雨模様 / ぷにぷに電気、ぺのれり

ポスト渋谷系コンピレーションシリーズ「Pastelphonic」に楽曲提供したこともある、ぺのれり・ぷに電による作品

そういえば、「渋谷百景」などで有名な邦楽情報サイトのradiodAzeにもこのアルバム情報が載ってて驚いた

http://radiodaze.g2.xrea.com/KKKva.htm

あのサイトはもう何年も新しいアルバム情報は書いてなかったようだが、あのサイトに載るだけの影響力がある名コンピであることは確か

そんなアルバムでも活躍していたこの両氏のタッグなので当然期待して聞いたわけですが、まさに大当たり

ムーンドライバー / エルスウェア紀行

ここ最近急に影のある曲を出すようになった2人組バンドエルスウェア紀行(何があった?)

浮遊感満載でどこ行くか分からないメロディが最高

スローテンポにどんどん熱くなるギターが目立ちますベースがずっと忙しそうにしてるのもGood

Spell of Love / 今井優子

1987年デビュー角松敏生プロデュースを経て自身ソングライターとなる今井優子によるキャリア35周年のアルバム「Spell of Love」(実は今井優子も今年知ったアーティストなのですが)

その中の1曲目かつ表題曲

シンセ担当する安部潤による編曲で、いかにもフュージョンイントロからまりラテン風味かつフィル満載のドラムパーカッションスラップしまくりのベース、よく練られたコーラス……と豪華なバックトラック それに負けてない今井優子自身による作曲 今年のベストトラックです



https://open.spotify.com/playlist/21kp6A9R6hUBijiEe2ia4Z?si=46236e3810db44da

ログイン ユーザー登録
ようこそ ゲスト さん