白石直人:「エントロピー」が何であるのか理解しづらいのは、エントロピーが複数の分野で異なる対象に対して異なる方法で定義されているからです。勿論異なる定義の量が同じ「エントロピー」という名前で呼ばれているのは、それらに似ている側面が少なくないからですが、しかし基本的設定や定義が異なることは意識しておくとよいでしょう。 熱力学は、「マクロな平衡状態の系の遷移」を扱う分野です。平衡状態というのは、大雑把に言えば、完全に緩和が終わった後の、流れもなく一様な状態のことです。例えば一様な水とか気体とかはその例です。熱力学における「エントロピー」は、断熱操作で状態が移り変われるかを特徴づける量として定義できます。断熱操作というのは、イメージとしては「絶対熱が逃げない魔法瓶」の中にあるような状況です。外とのエネルギーのやり取りは、ピストンを押したり引いたりすることによってのみ可能です。このような断熱操作で、ある状態Xが別の状態Yに移り変われるには、XのエントロピーS(X)がYのエントロピーS(Y)よりも小さい必要があります。言い換えれば、エントロピーは減ることがなく、常に増えていくということです。これは「エントロピー増大則」と呼ばれています。熱力学のエントロピーは、変化の不可逆性を特徴づけている、ともしばしばいわれます。 平衡統計力学は、「対象とする物体のミクロな知識から、マクロな性質(エントロピーなどの量)を導く」ことを行う分野です。平衡統計力学でもエントロピーが定義されており、これは「ボルツマンエントロピー」とも呼ばれます。ある物体のあるマクロな平衡状態におけるボルツマンエントロピーは、対象となる物体がそのマクロな平衡状態であるような「とりうるミクロな状態の総数」の対数で定義されます。例えばマクロな平衡状態がエネルギーE、体積V、粒子の数Nで指定されているのならば、「とりうる状態の総数」というのは、体積Vの容器中にN個の粒子を配置する方法で、エネルギーがEであるような方法の総数のことです。とりうるミクロな状態の数が多ければ多いほど、ボルツマンエントロピーは大きくなります。平衡統計力学のボルツマンエントロピーは、とりうる状態の広さを特徴づけている、とも言われます。そして、ミクロな方法で定義されたボルツマンエントロピーは、マクロな状態の変化可能性を用いて定義された熱力学のエントロピーと一致します。これは「ボルツマンの原理」と呼ばれているものです。 エントロピーは、物理だけでなく情報理論でも用いられています。情報理論における「シャノンエントロピー」は、確率的に生じる事象に対して定義されており、そこで生じる事象がどれくらい不確かなのか(予測しづらいか)を定量化しています。何が起きるのかを予測しやすい場合(例えば、(重りを仕込んでいるので)高い確率で6の目が出るサイコロを振る)にはシャノンエントロピーは小さい値をとり、何が起きるのかを予測しづらい場合(例えば、均等なサイコロを振る)にはシャノンエントロピーは大きな値をとります。情報理論のシャノンエントロピーは、乱雑さを特徴づけている、とも言われます。 シャノンエントロピーとボルツマンエントロピーにもつながりがあります。あるマクロな平衡状態に対応するミクロな状態がすべて等確率で出現するとします。すると、この状態出現に対するシャノンエントロピーは、ボルツマンエントロピーに一致することが示せます。ただし、両者は異なる対象に対して定義されていることは意識しておく必要があります。サイコロに対してはシャノンエントロピーは定義可能ですが、ボルツマンエントロピーは定義されていません。 注意しておきたいのは、熱力学のエントロピーも、平衡統計力学のボルツマンエントロピーも、マクロな平衡状態に対して定義されている量だということです。マクロな平衡状態ではない対象、例えばあなたの部屋、に対しては、これらの量はどちらも定義されていません。また、シャノンエントロピーは確率的に生じる出来事に対して定義されている量です。もしあなたの部屋の状況が、サイコロを振った際の出目のように「何か確率的に事象が起きる」とみなせるのならば、あなたの部屋のシャノンエントロピーは定義できます。しかしそうでないならば、あなたの部屋のシャノンエントロピーという量は定義されません。世間で用いられる「エントロピー」の少なくない場合は、これらのエントロピーがどれも定義されていない対象に対して、ただアナロジーとして用いられています。(もっと読む)
川原繁人:エントロピーはいろいろな分野で使われる尺度で、それがこの概念の理解を難しくしている一因かもしれません。驚きかもしれませんが、実は言語学の分野でもエントロピーは活躍する概念です。基本的に情報理論からの借りものですが。というわけで、言語学でエントロピーがどのように使われるかを解説してみます。 仰るとおり、エントロピーは「乱雑さ」の尺度です。予測不可能性の尺度といってもいいです。散らかった部屋はどこに何があるかわからない、という点で「予測不可能性が高い」つまり「エントロピーが高い」状態です。あるいは、「どれだけびっくりするか」という尺度と考えてもいいです。本棚に箸が隠れていたらびっくりしますよね? 逆に、綺麗に整頓された部屋はどこに何があるかわかる(=予想がつきやすい)ので、エントロピーは低いです。私はこの動画がとても分かりやすく解説していると思います。授業でも時々紹介する動画です。 言語パターンにおいてもエントロピーは重要な役割を担っていて、簡単にいえば、エントロピーが高い文脈(何が発音されるかわからない場所)では、より発音がはっきりする傾向にあります。 これ以降は私も専門外なのですが、たしか熱力学の分野では、「閉じた系の中でエントロピーは増大する」という法則が成り立ったと思います。ようは、散らかった部屋は勝手に綺麗にはなりません。ただし、外部からの力でエントロピーを下げることは可能です。親がカロリーを消費することで、子どもが散らかした部屋のエントロピーを下げることはできますからね。(もっと読む)
田口善弘@中央大学:エントロピーって「乱雑さ」と関係するとか思っている人が多いですよね。僕が熱力学の講義をするとき、最初の時間に「エントロピーってなんだと思う?」って訊くと物理学科の学生さえみんな「乱雑さ」って答えます。 でもね。エントロピーって意外かもしれないけどもともと、乱雑さとは何も関係なくみつかったものなんです。専門的な難しい言葉をつかうとエントロピーって「断熱系の準静的な変化では保存する量」ということになります。断熱ってようするに熱のやりとりがないことですね。力学とかでも摩擦を考えないとエントロピーは関係ないですが、摩擦を考えると熱が発生するので途端にエントロピーが関係してきます(が、普通の力学の教科書で熱が発生したらエントロピーと書いてあることはまずないです)。準静的っていうのは、すごくゆっくり変化する、という意味だと思ってもらえば大体当たっています。 エントロピーの大切な性質として、孤立した系では減少しない(準静的な変化じゃない場合は増大)というものがあります。いわゆる有名なエントロピー増大則ってやつですがちまたで言われているエントロピー増大則は孤立していない系でも間違って使われていてよろしくないです。エントロピーが増大している時、乱雑さが増大しているということは科学の発展的には後付けでみつかった話で乱雑さが増えるからエントロピーが増大するというのは因果関係があべこべです。むしろ「孤立系ではエントロピーが増大する」の方が本質的なんです。これ自身がエネルギー保存則みたいな宇宙の大原理で何か他の法則から説明できるようなものじゃないと今のところはされています。 でも、エントロピーって言葉はいまは物理より情報で使われるくらいでエントロピーが乱雑さと関係してないって言われると困るかもしれません。でも、安心してください。情報エントロピーが物理のエントロピーと等価だということが実験的にもわかってきました。つまり、コンピューターの中で情報が蓄えられた状態(乱雑さが少ないのでエントロピーが低い状態)とコンピューターの中でメモリーがリセットされた状態(乱雑さが多いのでエントロピーが高い状態)とのエントロピーの差を実際に力学的にエネルギーを加えて埋める必要があることがわかってきました。 なのでご依頼の「理解するために有益そうなことを教えて」には当てはまってないのですが、エントロピーとは皆さんが知っているものでは「熱」に一番近くて、熱のやり取りがなくても孤立系では勝手に増える、そしてそれはコンピューターの中のメモリーの情報エントロピーも含めて熱的なエントロピーだということです。そういう意味ではエントロピーは乱雑さっていうのはエントロピーの本質を外した(限定的な)理解だと思います。物理学者がエントロピーを発見したときには原子の存在さえわかってないのでそもそも微視的な乱雑さでエントロピーを定義できたはずなんてないんですから。(もっと読む)