はてなキーワード: 古典力学とは
そこで、系に観測者も含める事で、初めて量子力学のような微小領域の記述が出来るようになった、ってことじゃないのかな?
いやそれは違う。
黒体放射とか原子の安定性とか(詳細は説明しない、ぐぐれ)、古典力学的な理論の帰結と矛盾するような現象が次々と見つかって、個々の現象を説明するためのアドホックな理論がその都度できてきたんだけど、それらをつなぎ合わせたところできたのが「量子力学」という理論体系だった。
で、これが数式レベルではともかく、その解釈としては理解に苦しむ部分があって、今までの物理学のように事前の情報から現象を原理的に確定的に予言できるということがなく、確率的にしかものが言えないということがわかってきた。
だとすると、で、問題はその「確率的」というのが見かけ上のことなのかそうでないか、だ。つまり、情報が不足しているために物事が一見確率的に起こっているか(くじ引きが当たりかはずれか、みたいな話ね)、それとも本当に確率的にランダムにしかものごとが起こっていないのか、ということが議論になった。で、色々試した結果どうも前者の解釈では辻褄のあわないことがいくつもあるだろうということはわかってきたのだが、問題は前者と後者の線引きでこれがそう簡単ではなく、「観測」が混乱の原因だというのはわかってきたんだが、本当に物理的に意味のある「観測」とは一体何か、ということで揉めたわけだ。その話の中で一番極端な例として挙がってきたのが「シュレーディンガーの猫」というわけなんだが、確かにこの解釈を否定する根拠も難しかった。まして実験で確かめるとなると原理的にも装置の制約上も問題が当時はあった(現在でもある)。
実用上の問題としては、こんな細かい話を無視しても「使う」ことは十分可能で、例えば半導体を作ったりするときにはこんなことは気にしなくてもよかった。それで、現在に至るまで大半の物理学者・化学者はこの話を棚上げして理論を「使う」側にまわっているんだが、一部でどうしてもこの問題が気になるという人がいて、本業のかたわら時々手を出したりしているというのが現状なんだよ。
俺もシロウトなんだけどね。
別に、「観測したことが観測対象に影響を与える」なんてことは全然珍しいことでもないんだよね。
というか「観測は必ず観測対象に影響を与える」というのが量子力学なんじゃなかったっけ?
古典力学は観測者を系に含めないけれど、実際には系外から観測することは出来ない。
そこで、系に観測者も含める事で、初めて量子力学のような微小領域の記述が出来るようになった、ってことじゃないのかな?
でもって、シュレーディンガーの猫なんだけれど、結局あれは一番わかりやすく真っ当な見方、解釈の仕方はどれか、って話だよね。
鉛筆に重さを感じるのは、地球と鉛筆に引き合う力が働くから、と考えるのか、地球に向かって落ち込む空間に抗い加速させてるから、と考えるのか、そんな話じゃないのか?
えらく時間がかかったんだけど。どのくらい時間がかかったかと言うとたっぷり20年かかったんだけど。ブラケット記法で考えるのが多分一番近道だよな。
状態1をあらわす<φ1|があって、状態2をあらわす|φ2>がある。で、状態1から状態2に遷移する確率は<φ1|φ2>であらわされる。
これがブラケット記法。ただし、結果は複素数なので本当の確率は結果の絶対値であらわされる。そこはあんまり本質ではない。問題は状態1をあらわす<φ1|が行ベクトルだってこと(状態2は列ベクトル)。ベクトルの長さは無限大。それぞれの要素は複素数。二つのベクトルの内積をとるから、結果はスカラー(複素数)確率になるけど、じゃ、遷移する(内積を取る)前って何なのよってことになる。
で、上の|φ2>を観測された状態(たとえば右の穴を通った)と考えると、観測することによって、古典力学で理解可能な「右の穴を通る確率」に落ちてきた。確率はスカラー。でも、観測する前は確率に対応する複素数を無限個もつベクトルってことになる。
俺の理解だと「じゃぁ何かい」って言ったのがシュレーディンガー。
<φ1|を、観測前のブラックボックスの中の猫の状態と考える。|φ2>は観測後に猫が死んでいる状態とする。猫が死んでいる確率が<φ1|φ2>であらわされるのはいい。スカラー確率だから。だけど、観測前の猫が<φ1|ってのはどういうことだ?ベクトルの要素の数が無限だということは、猫は無限個の「ありえる状態」の重ね合わせってことかい?そんな馬鹿な話はないだろう。
これがシュレーディンガーの猫のパラドックス。中年に差し掛かって量子力学に手を染めたシュレーディンガーが、青春時代から量子革命に首を突っ込んだ世代についていけなかったことをあらわすエピソード。ていうか、これがまっとうな感性だよな。
古典力学では式のそれぞれの項に実世界と連結する意味がある。たとえばa=f/mって式は加速度を求める式だけど、その計算に必要な質量と力は、ちゃんと実生活にあるものとして理解できる。だけど、ブラケット記法では、左のブラ、右のケットに対応する古典物理学的な意味がない。実生活からの体験で理解できない。ブラケット演算を行って初めて理解可能な確率が出てくる。シュレーディンガーの抗議は量子実体を古典的物理的な体験で理解できないとする姿勢への抗議だった。
そうだよ、重ね合わせになってる。変に思えるけど、そうなってる。理由は知らない。
量子実体は古典的には理解できないよ、と。これはその後「量子力学は料理本だ。背景の原理は知らなくていい。正しい結果が出るのだから」というCookbook派の中心教義になる。
もう少し突っ込んで考えると、我々は量子力学においては遷移確率としてか事象を捉えられないことになる。遷移しないものは認識できない。観測しないものは古典力学的実体を持っていない。こう考えると
我々が観測しないとき、事象は存在しないのと同義だ
という極論が出てくる理由もわかる。
…と、理解しているんだけど、これでいいかな。
ええと、言いたいことがまとまらないのでばらばら書きます。
ハードディスクやメモリ上の情報構造物が dense であるとか sparse であるとかいいますよね。当然何かその情報構造物について「密度」を考えているわけですが、その単位はよくわからないものです。気体の「体積」「1分子あたりの熱エネルギー」「モル数」はそれぞれ違う次元の数ですが、ディスク上の情報構造物の「占有領域」「最低/平均ブロックサイズ」「圧縮した場合のバイト数を表現するのに必要なレジスタ幅」はまったく意味が違うのに、いずれもバイト数で表されます。これは情報科学の根底にあるトラブルの原因ですが、いまは統計力学と情報理論の間に安易な橋渡しができないことだけを意識してください。
ただ、気体でも極端に自由度の低い系(絶対零度近くとか、強い磁場の下にあるとか)では体積は圧力にも温度にも比例しないでしょう。それと似たような話として、自由度の低い情報構造物は情報理論の適用外です。個々のビットの間の関係は恣意的であって、あまり統計的扱いに向かないからです。
古典力学の前提で、粒子間の引力も斥力も無視するとボルツマン統計、量子力学ならボーズ統計やフェルミ統計に従うという話ができますが、すべてのアプリケーションが書き出すビット列にそういう統計を考えることはできるでしょうか?
アプリケーションの各論を展開できるほど柔軟で包括的な数学を使えば、情報構造物のミクロの理論は好き勝手に展開できるでしょう。ただ、それはアルゴリズムの単なる記述ではありませんか?