ヒルベルト空間 Hilbert Space


|| 計算はこうやって、って感じのルール集

この記事では、主に量子力学で使うものを解説。

厳密な話とかはあんまりしません。

スポンサーリンク

 

 

 


目次

 

量子について <<前の話

 

ヒルベルト空間「数学がちゃんとできる保証」

 

   内積空間「行列をスカラー値にする」

   行列「物理量とかをこれで表す」

   行列表示「関数やら演算子は行列で表せる」

 

  

 

 

 


ヒルベルト空間

 

|| 正しく計算するためのルールの集まり

これは『計算が問題無くできる保証』のことで、

「矛盾が出ないルールをまとめたもの」を指します。

 

 

詳しい内容は「代数学」の知識が必要で、

ちょっと専門的過ぎて分かり難いかも?

 

 

まあ感覚的には単なる「ルール」ですね。

それがかなり抽象化されて、大量にある感じ。

 

 

 

詳しい内容については、ここでは話しません。

ほぼ全て省略します。

 

 

省略する理由についてですけど、

一番でかい理由は、

特に知らなくても大丈夫だから、ですね。

 

 

それに、なんでそのルールが必要なのかってのが、

ルールだけを見てもよく分からないんですよ。

なので、詳しく知りたければ代数学を勉強してください。

 

 

 

用語としては『距離』とか、

『線形』『対称』『正』とか、

「距離空間」「内積空間」とか。

 

 

まあこういうのがあるんですけど、

ぶっちゃけよくわからんと思います。

 

 

なのでとりあえず、

ヒルベルト空間は↓を保証する、と覚えてください。

 

 

『距離が表現できる』

『ちゃんと数学ができる』

 

 

厳密には『複素内積空間』の条件を満たしていて、

『完備距離空間』の条件を満たしている「空間」を、

「ヒルベルト空間」と言います。

 

 

↑意味わからないですよね。

まあでも代数学の知識がないとわかるわけないんで、

わけわかんなくても気にしなくていいです。

 

 

 

 

 

内積空間

 

|| 内積って操作ができる保証

これは「ベクトルが使える保証」のことで、

当然「内積」っていう操作が使えることも保証してます。

 

 

これもなんとなく分かればOK。

 

 

これよりも「内積」って操作の方が重要で、

これは『計算上、必要になるもの』なので、

覚えてもらわないと困ります。

 

 

具体的には『ベクトルから』

「図形の長さを求める」のに必要でして、

量子力学では『直交性の保証』で使われます。

 

 

 

というわけで「内積」の紹介をします。

まあこれ、要は『ベクトルの掛け算』なので、

三平方の定理で見るのが一番わかりやすいですかね。

 

\begin{array}{rlc} \displaystyle ||\vec{b}-\vec{a}||^2&=(\vec{b}-\vec{a})(\vec{b}-\vec{a}) \\ \\ &=\vec{a}・\vec{a}+\vec{b}・\vec{b}-2\vec{a}・\vec{b} \end{array}

 

\vec{a}・\vec{b} みたいなのが内積

 

例えば「ベクトル \vec{a}=(a_1,a_2) 」をこうすると、

『座標の2乗の和 a^{2}_{1}+a^{2}_{2} 』はこうですから、

 

\begin{array}{rlc} \displaystyle \vec{a}・\vec{a}=||\vec{a}||^2&=a^{2}_{1}+a^{2}_{2} \\ \\ \vec{b}・\vec{b}=||\vec{b}||^2&=b^{2}_{1}+b^{2}_{2} \end{array}

 

こんな感じになりますよね。

まあ、内積ってのはこんなのなんですよ。

 

 

ただ、なんか「 \vec{a}・\vec{b} 」の部分って謎ですよね。

 

 

てなわけでこれなんですけど、↑のように

「長さ」みたいな感じに自然に定義すると、

 

||\vec{a}||\,||\vec{b}||\cosθ

 

ベクトルの傾きを合わせて掛け合わせる、

こういう定義が、最も都合が良いとされてます。

 

\begin{array}{rlc} \displaystyle ||\vec{a}||\,||\vec{b}||\cos \frac{π}{2} &=0 \\ \\ \displaystyle ||\vec{a}||\,||\vec{b}||\cos 0&=||\vec{a}||\,||\vec{b}|| \end{array}

 

ベクトルの向きを考えると、こうしたいので。

 

 

で、これ見てわかると思いますけど、

これは『計算に必要なもの』なんですよ。

 

 

 

意味としては、

「線形性」ってのがこれの核なんですけど、

これだけじゃ意味がつかみにくいと思います。

 

 

一応言っておくと、線形性ってのは、

例えば「 (a+b)(x+y) 」とかの、

ax+ay+bx+by みたいな形」の話です。

 

\begin{array}{rlc} \displaystyle k(x_1+x_2+\cdots+x_n)&=kx_1+kx_2+\cdots+kx_n \\ \\ \displaystyle k(x_1,x_2,\cdots,x_n)&=kx_1,kx_2,\cdots,kx_n \end{array}

 

こういう『横並び・線みたいな形』を、

数学では「線形」って呼んでるんですよ。

 

 

 

んでまあこれ、

 

\displaystyle \begin{pmatrix} a&b \ \end{pmatrix}\begin{pmatrix} x \\ y \\ \end{pmatrix}=ax+by

 

ベクトルの掛け算(内積)が

こんな感じに定義されてるので、

そこそこ見るんです。

 

 

「確率」と「期待値」とか、

『ベクトルを使う』ことで、

見やすく表現できるので。

 

 

 

例えば『長さ』とかを考える場合でも、

\sqrt{x^2+y^2} 」みたいな式が出てきます。

 

 

んでこれ、ベクトルで表現すると、

 

(x,y)(x,y)=x^2+y^2

 

そこそこ見やすいですよね。

 

 

なにより「ベクトル」は、

そのまま『原点からの座標』を表してるので、

「原点を通る直線(一次関数)」の感覚で扱えます。

 

 

まあ要は直感的な上に使いやすいわけですよ。

 

 

 

科学での具体的な使われ方としては、

「秒」と「長さ」の2つの軸を考えて、

ベクトルで『速度』を表現したりしますね。

 

 

 

 

 

ノルムと内積の記号

 

量子力学でよく出てくる記号の話をしておきます。

内積に関するものだと重要なやつが2つあって、

 

\langle・,・\rangle

||・||

 

これの意味は知らないとまずいので、紹介。

まず「内積」の記号の意味が↓

 

\begin{array}{rlc} \displaystyle \langle(x_1,x_2),(y_1,y_2)\rangle&=x_1y_1+x_2y_2 \\ \\ \displaystyle \langle(a_1,...,a_n),(b_1,...,b_n)\rangle&\displaystyle =\sum^{n}_{i=1}a_ib_i \\ \\ &=a_1b_1+a_2b_2+…+a_nb_n \end{array}

 

詳しくは後になりますが、

「ブラケット表記」って書き方だと↓

 

\begin{array}{rlc} \displaystyle \langle(x_1,x_2)|・|(y_1,y_2)\rangle&=\langle(x_1,x_2)|(y_1,y_2)\rangle \\ \\ &\displaystyle =\begin{pmatrix}x_1&x_2\end{pmatrix}\begin{pmatrix}y_1\\y_2\end{pmatrix} \\ \\ & =x_1y_1+x_2y_2 \end{array}

 

んで「ノルム(主に長さ)」ってやつの意味が↓

 

\displaystyle ||X||=\sqrt{\langle X,X\rangle}

 

\begin{array}{lrl} \displaystyle X=(x_1,x_2) \\ \\ &||X||&\displaystyle =\sqrt{|x_{1}|^{2}+|x_{2}|^{2}} \\ \\ \displaystyle X=(x_1,x_2,x_3)\\ \\ &||X||&\displaystyle =\sqrt{|x_{1}|^{2}+|x_{2}|^{2}+|x_{3}|^{2}} \end{array}

 

ベクトルの記号については、

この辺りを知っていれば基本はOK。

要は『座標や長さを求めたい』だけなので。

 

 

 

 

 

内積と積分

 

「内積」にも『一般性を与えるための表現の仕方』

というのがあって、ここではそれを紹介します。

 

 

まあどういうことかというと、

実はこの「内積」は「積分」で表せるんですよ。

 

\displaystyle \langle f(x),g(x) \rangle=\int_{-\infty}^{\infty} f(x)g(x) dx

 

具体的にはこんな感じに。

でもまあこれ、直観的にはよく分からんですよね。

 

 

でもまあ、自然に考えると実は↑は普通の話でして、

というのも↑は、単に↓を細かく表してるだけなんですよ。

 

 

x の間隔 dx=1 とすると、

\displaystyle \langle f(x),g(x) \rangle=\begin{pmatrix} f(\infty) \\ \vdots \\ f(2) \\ f(1) \\ f(0) \\ f(-1) \\ \vdots \\ f(-\infty) \end{pmatrix}^{\mathrm{tr}} \begin{pmatrix} g(\infty) \\ \vdots \\ g(2) \\ g(1) \\ g(0) \\ g(-1) \\ \vdots \\ g(-\infty) \end{pmatrix}dx

=f(\infty)g(\infty)+\cdots+f(0)g(0)+\cdots+f(-\infty)g(-\infty)

 

 

この場合の x の中身は「自然数」です。

んで図形のイメージとしては、

等間隔 dx=1 に長方形が並んでる感じですね。

 

 

で、 x の間隔 dx0 に近づけていけば、

x の中身を「実数全体」にできて、

自然に↓が導かれます。

 

\displaystyle \langle f(x),g(x) \rangle=\int_{-\infty}^{\infty} f(x)g(x) dx

 

内積は「自然数」の感覚が強いんですが、

こうすると「実数」の感覚で内積を扱えるようになります。

これはまあ、そのための考え方ですね。

 

 

これはわりと使われる表現なので、

ちゃんと理解して覚えておきましょう。

 

 

 

 

 

はい、とまあ、内積空間の基本はこんな感じです。

詳しくは「ベクトル空間」を勉強したら分かります。

興味があったら調べてみてください。

 

 

 

 

 


行列

 

|| ベクトルを1列もしくは1行に並べたもの

基本的には「連立方程式の別の表し方」だと思ってOK。

厳密には「ベクトルが一般化されたもの」ですけど。

 

 

使われ方は、だいたい『演算子』ですね。

より具体的には『複雑な演算子』として使われてます。

 

 

なんのこっちゃ分からんと思いますが、大丈夫。

使ったことない人には触れる機会すらないので、

知らなくて当然です。

 

 

 

まあともかく、こいつは科学を語る上では

どうしても避けて通れないものになります。

 

 

例えば「テンソル」っていう、

行列をさらに一般化した概念があるんですが、

これ、使われてるんですよ。

 

 

まあ、「行列」も「テンソル」も、

それ自体はそんなに重要ではないんですけど、

使うので、記号の意味は知っておかないといけません。

 

 

 

確認しておくと、

そもそも『表現したいもの』っていうのは、

「物理量」「座標・ベクトル」「時間」とかなんですよ。

 

 

つまり、この『表現したい』ってのが主目的。

 

 

そう、重要なのは『表現したいもの』で、

「行列・テンソル」はその『実現手段』ですから、

行列・テンソルをメインで見る必要はありません。

 

 

 

結局、何が言いたいかというと、

一般化されたものを重要視しないでね、って話。

 

 

まあどういうことかというと、

一般化されたものっていうのは、

n 次元」「 n 行/列」ってなるんですけど、

 

 

『時空間を説明する』のに、

次元はそんなに必要ない、じゃないですか。

 

 

必要な次元はだいたい「 4 次元」までで、

そもそも表現する場合は「座標」とかなので、

ほとんどが「 2,3 次元」で十分。

 

 

つまるところ、

過剰に一般化された部分は見る必要が無くて、

重要なのは「使える」部分だけ。

 

 

まあそもそも、数学的な「一般化」に必要なのは、

次元数としては『だいたい 3 つ』くらいあれば十分で、

つまりは「 3 次元」まででだいたいどうにかなります。

 

 

具体的には↓の書き方を覚えておけば、

行列に関してはだいたいおっけーです。

 

\displaystyle \begin{cases} ax+by=m \\ cx+dy=n \end{cases}

 

\begin{array}{rlc} \displaystyle \begin{pmatrix}a&b\\c&d\end{pmatrix}\begin{pmatrix}x\\y\end{pmatrix}&=\begin{pmatrix}ax+by\\cx+dy\end{pmatrix} \\ \\ \begin{pmatrix}ax+by\\cx+dy\end{pmatrix}&=\begin{pmatrix}m\\n\end{pmatrix} \end{array}

 

↑は「連立方程式」ですね。

見たままに、行列っていうのは、

基本的に「係数」を表してると思ってください。

 

x=α,\,y=β

\displaystyle \begin{pmatrix}1&0\\0&1\end{pmatrix}\begin{pmatrix}x\\y\end{pmatrix}=\begin{pmatrix}α\\β\end{pmatrix}

 

x=α,\,y=β,\,z=γ

\displaystyle \begin{pmatrix}1&0&0\\0&1&0\\0&0&1\end{pmatrix}\begin{pmatrix}x\\y\\z\end{pmatrix}=\begin{pmatrix}α\\β\\γ\end{pmatrix}

 

んで「解だけ」だと、

行列で表すとこうなります。

 

\vec{a_1}=(a_{11},a_{12})

\vec{a_2}=(a_{21},a_{22})

 

\begin{pmatrix} \vec{a_1} \\ \vec{a_2} \end{pmatrix}=\begin{pmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{pmatrix}

 

んで、ベクトルの集まりとしてはこんなです。

こっちの方が行列の本質に近くはありますが、

あんまり直観的じゃありませんね。

 

 

はい、とまあ、この3つが行列の基礎です。

他の規則とか性質はここから求められてます。

一般化もここから。

 

 

 

 

 

単位行列と逆行列( ×1,×1/x

 

「単位行列」っていうのがあるので紹介します。

超重要なので、これは絶対に覚えましょう。

 

\begin{array}{llc} E&=E_n \\ \\ =I&=I_{n} \\ \\ =\mathrm{Id}&=\mathrm{Id}_n \\ \\ &=\hat{1} \end{array}

 

\begin{array}{rlc} \displaystyle \mathrm{Id}_2&=\begin{pmatrix}1&0\\0&1\end{pmatrix} \\ \\ \mathrm{Id}_3&=\begin{pmatrix}1&0&0\\0&1&0\\0&0&1\end{pmatrix} \end{array}

 

\begin{array}{rlc} \displaystyle AI&=IA \\ \\ &=A \end{array}

 

これは、いわば「 n×n 行列」の、

掛け算で言う ×11 みたいなものです。

 

 

これが重要な理由は、

\hat{1} だから』って感じでしょうか。

これがないと始まらない、みたいな。

 

 

 

そんで、これがあるように、

例えば 2 に対する「 1/2 」みたいなものもあって、

そういうのを「逆行列」って言います。

 

\begin{array}{rlc} \displaystyle AA^{-1}&=A^{-1}A \\ \\ &=I \end{array}

 

A=\begin{pmatrix}a&b\\c&d\end{pmatrix}

 

\begin{array}{rlc} \displaystyle A^{-1}&\displaystyle =\frac{1}{ad-bc}\begin{pmatrix}d&-b\\-c&a\end{pmatrix} \\ \\ &\displaystyle =\frac{1}{\mathrm{det}A}\begin{pmatrix}d&-b\\-c&a\end{pmatrix} \end{array}

 

んで、これは必ず存在するってわけじゃなくて、

ad-bc=0 の場合には存在しません。

 

 

 

 

 

行列式(絶対値的な)

 

↑で出てきた「 \mathrm{det}A 」っていうのが、

「行列式」って言われてるものになります。

 

 

これは、いわば『行列の絶対値みたいなもの』で、

 

A_{2×2}=\begin{pmatrix}\textcolor{pink}{a_{11}}&\textcolor{skyblue}{a_{12}}\\\textcolor{skyblue}{a_{21}}&\textcolor{pink}{a_{22}}\end{pmatrix}

\begin{array}{rlc} \displaystyle |A_{2×2}|&=\mathrm{det}A_{2×2} \\ \\ &=\textcolor{pink}{a_{11}a_{22}}-\textcolor{skyblue}{a_{21}a_{12}} \end{array}

 

これは見た目単純なんですけど、

 

A_{3×3}=\begin{pmatrix}\textcolor{pink}{a_{11}}&a_{12}&a_{13}\\a_{21}&\textcolor{skyblue}{a_{22}}&\textcolor{skyblue}{a_{23}}\\a_{31}&\textcolor{skyblue}{a_{32}}&\textcolor{skyblue}{a_{33}}\end{pmatrix} の行列だと

 

\begin{array}{rlc} \displaystyle |A_{3×3}|&=\mathrm{det}A_{3×3} \\ \\ \\&=\begin{array}{rlc} a_{11}\left|\begin{array}{ccc}a_{22}&a_{23}\\a_{32}&a_{33}\end{array}\right| \\ \\+a_{12}\left|\begin{array}{ccc}a_{21}&a_{23}\\a_{31}&a_{33}\end{array}\right| \\ \\ +a_{13}\left|\begin{array}{ccc}a_{21}&a_{22}\\a_{31}&a_{32}\end{array}\right| \end{array} \\ \\ &=\begin{array}{rcc}a_{11}a_{22}a_{33}-a_{11}a_{23}a_{32}\\+a_{12}a_{21}a_{33}-a_{12}a_{23}a_{31}\\ +a_{13}a_{21}a_{32}-a_{13}a_{22}a_{31} \end{array} \end{array}

 

とてつもなく面倒になってます。

手計算だとすごい手間ですよね、これ。

 

 

ただこれ、割と重要なんですよ。

だから無視できません。

 

 

というのも、

「逆行列があるかどうか」の判定で使えるんです。

 

 

どういうことかというと、

\mathrm{det}A=0 」だと分かったなら、

A の逆行列は存在しない、と言えます。

 

 

そして逆を言えば、

こいつの値が 0 じゃないなら、

逆行列が存在する、って確定させられるんですよ。

 

 

2×2のやつは確実に分かりますし、

詳しい証明はだいぶ長くなるので省略します。

知りたい人は「余因子行列」で調べてみてください。

 

 

 

話は変わりますが、

この行列式には図形的な意味があって、

 

 

例えば2×2のものだと、

「行列」が『2つの点 (a_{11},a_{12}),(a_{21},a_{22}) 』を表してて、

 

A=\begin{pmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{pmatrix}

|\mathrm{det}A|=|a_{11}a_{22}-a_{21}a_{12}|

 

これが4つの点で表せる、

「平行四辺形の面積」を表してます。

 

\begin{array}{llll} &&(a_{11}+a_{21},a_{12}+a_{22}) \\ \\ &(a_{11},a_{12})&(a_{21},a_{22}) \\ \\ (0,0) \end{array}

 

操作としては、

正方形の外側をカットする感じ。

んで、残ったやつがこれです。

 

 

ちなみにこれを半分にすれば、

原点とベクトルの「三角形の面積」ですね。

 

 

まあなんでこうなるかはさておいて、

とりあえず、こういうものだと思っておいてください。

 

 

 

 

 

回転行列(ベクトルをくるくる)

 

行列の中でも特に重要なのがあって、

その1つに「回転行列」っていうのがあります。

 

\begin{array}{rlc} \displaystyle z&=a+bi \\ \\ z&=r(\cosθ+i\sinθ) \\ \\ &=r\,e^{iθ} \end{array}

 

\left\{ \begin{array}{rlc} \displaystyle a&=r \cos θ \\ \\ b&=r \sin θ \\ \\ r&=\sqrt{a^2+b^2} \end{array} \right.

 

具体的には、この『複素数の感覚』を使って、

 

\displaystyle r\begin{pmatrix} \cosθ & \,?\, \\ \sinθ & \,?\, \end{pmatrix}\begin{pmatrix} 1 \\ 0 \end{pmatrix}=r\begin{pmatrix} \cosθ \\ \sinθ \end{pmatrix}

 

三角関数の加法定理(数IIの範囲)から、

逆算することで導かれます。

 

\begin{array}{rlc} \displaystyle \begin{pmatrix} \cosθ\cos0-\sinθ\sin0 \\ \sinθ\cos0 + \cosθ\sin0 \end{pmatrix}&=\begin{pmatrix} \cos(θ+0) \\ \sin(θ+0) \end{pmatrix} \\ \\ \\ \displaystyle \begin{pmatrix} \cosθ & -\sinθ \\ \sinθ & \cosθ \end{pmatrix}\begin{pmatrix} \cos0 \\ \sin0 \end{pmatrix}&=\begin{pmatrix} \cosθ \\ \sinθ \end{pmatrix} \\ \\ \\ \displaystyle \begin{pmatrix} \cosθ & -\sinθ \\ \sinθ & \cosθ \end{pmatrix}\begin{pmatrix} \cos α \\ \sin α \end{pmatrix}&=\displaystyle \begin{pmatrix} \cosθ\cos α-\sinθ\sin α \\ \sinθ\cos α + \cosθ\sin α \end{pmatrix} \\ \\ &=\begin{pmatrix} \cos (θ+α) \\ \sin (θ+α) \end{pmatrix}\end{array}

 

はい、まあこんな感じにして、

「ベクトルの傾きを θ 回転させる」ことを実現する、

2×2 の回転行列』っていうのが得られるわけです。

 

\displaystyle \mathrm{Rot}(θ)=\begin{pmatrix} \cosθ & -\sinθ \\ \sinθ & \cosθ \end{pmatrix}

 

そしてこれに「実数 r 」をかけると、

「ベクトルの r 倍の長さの伸縮」も実現できるんですね。

 

\begin{array}{rlc} r_1\begin{pmatrix} \cosθ & -\sinθ \\ \sinθ & \cosθ \end{pmatrix}r_2\begin{pmatrix} \cos α \\ \sin α \end{pmatrix}&=r_1r_2\begin{pmatrix} \cos (θ+α) \\ \sin (θ+α) \end{pmatrix} \end{array}

 

で、これを見てわかると思いますが、

「あらゆるベクトル」に対して、

 

 

『全ての角度 θ の回転』と

r 倍の伸縮』が実現できてます。

 

 

そう、つまり「回転行列」と「 r 」を使うと、

「あらゆるベクトル」を、

『すべてのベクトルに変換できる』んです。

 

 

 

余談ですが、固有ベクトルに対してのものなら、

r は『固有値』と呼ばれたりしますね。

この話は、今はスルーで良いです。

 

 

 

ともかく「回転行列」については、

「回転」と「伸縮」が実現できることから、

 

 

行列が「どのようなベクトルの集まり」であっても、

『全てのベクトルに変換できる』から重要なんですね。

 

 

とまあこんな感じに、

「回転行列の存在」から、

『いろんな変換(演算子)』を導けることが分かりました。

 

 

 

量子力学では、

「個数演算子の固有ベクトル(?)」ってのを使って、

『観測可能量』っていうのを表したりします。

 

 

 

まあともかく、この『回転行列 \mathrm{Rot}(θ) 』が

超便利だってことを覚えておきましょう。

 

 

 

 

 

転置行列(ベクトルの表示を縦→横,横→縦に)

 

これもわりと大事なので紹介しておきます。

いやまあ、これが大事ってよりは、

「これを使う理由」の方が大事なんですが。

 

 

まあともかく、これは『恒等演算子 \hat{1} 』っていう、

「特に何も変えない」操作を考える時に必要なので、

スルーできない、って感じに思っておいてください。

 

 

↑で言う「何も変えない」っていうのは、

掛け算で言う ×1

足し算で言う +0 とかのことですね。

 

 

 

それと、これは他にも

『ベクトルの横表示・縦表示の入れ替え』でも必要なんです。

 

 

複素数の『共役』っていう操作の、

「入れ替え」の感覚を表現するのに、

こいつは最も適してるので。

 

 

 

ちなみに「複素共役」っていうのは、

a+bia-bi の関係」のことです。

 

\begin{array}{rll} \displaystyle z&=a+bi \\ \\ \\ \overline{z}&=z^* \\ \\ &=a-bi \end{array}

 

記号はこういうのが使われてます。

 

z・\overline{z}=a^2+b^2

 

で、なんでこれが大事かについては、

これがしたいから、なんですよ。

 

 

見てわかるとは思いますが、

「ほぼ同じ z\overline{z} だけ」を使って、

『虚数を実数に変換することが出来る』わけで。

 

 

まあつまり、『ほとんど形を変えない』で、

「分かりやすい形に変換できる」んですよ、これ使うと。

まあ、だからこれは大事なんですね。

 

 

 

で、肝心の「転置行列」なんですけど、

 

\displaystyle A=\begin{pmatrix} \textcolor{skyblue}{a}&b&c \end{pmatrix}

 

\begin{array}{rlll} {}^\mathrm{t}A&=A^\mathrm{t}&=A^\mathrm{T} \\ \\ &=A^{\mathrm{tr}}&=\begin{pmatrix} \textcolor{skyblue}{a}\\b\\c \end{pmatrix} \end{array}

 

\begin{pmatrix} \textcolor{skyblue}{a_{11}}&a_{12}&a_{13}\\a_{21}&\textcolor{skyblue}{a_{22}}&a_{23}\\a_{31}&a_{32}&\textcolor{skyblue}{a_{33}} \end{pmatrix}^{\mathrm{tr}}=\begin{pmatrix} \textcolor{skyblue}{a_{11}}&a_{21}&a_{31}\\a_{12}&\textcolor{skyblue}{a_{22}}&a_{32}\\a_{13}&a_{23}&\textcolor{skyblue}{a_{33}} \end{pmatrix}

 

(X^{\mathrm{tr}})^{\mathrm{tr}}=X

 

まあこんな感じです。

見たまま、「行と列を入れ替える」操作になります。

 

 

 

で、量子力学ではどうなのかって話なんですが、

「エルミート演算子」もしくは「随伴作用素」

これを説明するとき、この転置行列が必要になるんですよ。

 

 

 

 

 

行列の積の転置行列

 

これ、ちょっと特殊なので押さえておきます。

計算の手続きで使うので覚えておきましょう。

結論としては↓ですね。

 

\displaystyle (AB)^{\mathrm{tr}}=B^{\mathrm{tr}}A^{\mathrm{tr}}

 

これは↓の2つを見れば納得できるかと。

 

\displaystyle X=\begin{pmatrix} x_1&x_2&x_3&\cdots&x_n \end{pmatrix}

\displaystyle Y=\begin{pmatrix} y_1&y_2&y_3&\cdots&y_n \end{pmatrix}

 

\displaystyle XY^{\mathrm{tr}}=x_1y_1+x_2y_2+x_3y_3+\cdots+x_ny_n

\displaystyle YX^{\mathrm{tr}}=y_1x_1+y_2x_2+y_3x_3+\cdots+y_nx_n

 

1つはベクトルのこれ。

んでもう1つは 2×2 の具体例です。

 

\displaystyle A=\begin{pmatrix} a_{11}&a_{12} \\ a_{21}&a_{22} \end{pmatrix}

\displaystyle B=\begin{pmatrix} b_{11}&b_{12} \\ b_{21}&b_{22} \end{pmatrix}

 

\displaystyle \begin{array}{rlc} (AB)^{\mathrm{tr}}&=\begin{pmatrix} a_{11}b_{11}+a_{12}b_{21} & a_{11}b_{12}+a_{12}b_{22} \\ a_{21}b_{11}+a_{22}b_{21} & a_{21}b_{12}+a_{22}b_{22} \end{pmatrix}^{\mathrm{tr}} \\ \\ &=\begin{pmatrix} a_{11}b_{11}+a_{12}b_{21} & a_{21}b_{11}+a_{22}b_{21} \\ a_{11}b_{12}+a_{12}b_{22} & a_{21}b_{12}+a_{22}b_{22} \end{pmatrix} \end{array}

 

\displaystyle \begin{array}{rlc} B^{\mathrm{tr}}A^{\mathrm{tr}}&=\begin{pmatrix} b_{11}&b_{21} \\ b_{12}&b_{22} \end{pmatrix}\begin{pmatrix} a_{11}&a_{21} \\ a_{12}&a_{22} \end{pmatrix} \\ \\ &=\begin{pmatrix} b_{11}a_{11}+b_{21}a_{12}&b_{11}a_{21}+b_{21}a_{22} \\ b_{12}a_{11}+b_{22}a_{12}&b_{12}a_{21}+b_{22}a_{22} \end{pmatrix} \\ \\ &=(AB)^{\mathrm{tr}} \end{array}

 

「→↓」「↓→(転置)」が一致する

って言ってるだけですね。

 

 

証明はこれを一般化する感じです。

興味あれば自分でやってみてください。

まあ、これ分かれば十分なんですが。

 

 

 

 

 

行列表示

 

これは「演算子」を『行列で表示する』やり方の話。

行列力学って言われてる分野の一分野とも言えます。

 

 

量子力学では必須の部分で、

核の1つと言っても良いでしょう。

 

 

てなわけで、

「行列表示」についてざっとぱっと解説すると、

 

\displaystyle \begin{array}{rlc} \displaystyle f(x)&=1+x+x^2 \\ \\ f(1)&=1+1+1^2 \end{array}

 

まず『行列表示ではない』見慣れた表し方ですが、

こんな形のやつは見たことがあるはずです。

これについては、特に疑問は無いでしょう。

 

 

じゃ、問題の「行列表示は?」って話ですが、

これは↓みたいな感じになるんですよ。

 

\begin{array}{rlc} \displaystyle f(x)&=ax^2+bx+c \\ \\ \displaystyle f(x)&=\begin{pmatrix} a&b&c \end{pmatrix}\begin{pmatrix} x^2\\x^1\\x^0 \end{pmatrix} \\ \\ \\ f&=\begin{pmatrix} a&0&0\\0&b&0\\0&0&c \end{pmatrix} \end{array}

 

分かりやすいですね。

まあこれだけじゃあれなので、

「微分」の場合も見ておきましょうか。

 

\begin{array}{rlc} \displaystyle \displaystyle \frac{d}{dx}f(x)&=2ax+b \\ \\ \displaystyle \frac{d}{dx}f&=\displaystyle \begin{pmatrix} 0&2a&b \end{pmatrix} \end{array}

 

\begin{array}{rlc} \displaystyle \displaystyle 1&=\begin{pmatrix} 0&0&1 \end{pmatrix}\begin{pmatrix} x^2\\x^1\\x^0 \end{pmatrix} \\ \\ \displaystyle x&=\begin{pmatrix} 0&1&0 \end{pmatrix}\begin{pmatrix} x^2\\x^1\\x^0 \end{pmatrix} \\ \\ \displaystyle x^2&=\begin{pmatrix} 1&0&0 \end{pmatrix}\begin{pmatrix} x^2\\x^1\\x^0 \end{pmatrix} \end{array}

 

これをまとめて並べてみれば、

↓みたいになるのがわかると思います。

 

\textcolor{skyblue}{x^2}+\textcolor{pink}{x}+1=\begin{pmatrix} \textcolor{skyblue}{1}&\textcolor{skyblue}{0}&\textcolor{skyblue}{0} \\ \textcolor{pink}{0}&\textcolor{pink}{1}&\textcolor{pink}{0} \\ 0&0&1 \end{pmatrix}\begin{pmatrix} x^2\\x^1\\x^0 \end{pmatrix}

 

んで、こうなると分かれば、

「微分」が↓みたいになるのもわかると思います。

 

\begin{array}{rlc} \displaystyle \frac{d}{dx}\begin{pmatrix} 1&0&0 \\ 0&1&0 \\ 0&0&1 \end{pmatrix}\begin{pmatrix} x^2\\x^1\\x^0 \end{pmatrix} &=(x^2)^{\prime}+(x)^{\prime}+(1)^{\prime} \\ \\ &=\begin{pmatrix} 0&2&0 \\ 0&0&1 \\ 0&0&0 \end{pmatrix}\begin{pmatrix} x^2\\x^1\\x^0 \end{pmatrix} \\ \\ \\ \displaystyle \frac{d}{dx}&=\begin{pmatrix} 0&2&0 \\ 0&0&1 \\ 0&0&0 \end{pmatrix} \end{array}

 

はい、とまあ「行列表示」ってのはこんなのです。

そんなに難しくないですよね。

 

 

 

ちなみにこの場合での、

x^2,x^1,x^0 」みたいなやつを、

行列の用語で「基底」と言います。

 

 

んで見ての通り、行列は、

この「基底」を定めないと分かりません。

 

 

そう、「基底」を定めてから分かるんですよ。

てことは、「基底」の定め方で、

書き方が変化しそうじゃありませんか?

 

 

試しに「基底」を「 x^0,x^1,x^2 」として、

↑と順番を入れ替えてみましょうか。

 

\begin{array}{rlc} \displaystyle \frac{d}{dx}(1+x+x^2)&=\begin{pmatrix} 0&0&0 \\ 1&0&0 \\ 0&2&0 \end{pmatrix}\begin{pmatrix} x^0\\x^1\\x^2 \end{pmatrix} \\ \\ \displaystyle \frac{d}{dx}&=\begin{pmatrix} 0&0&0 \\ 1&0&0 \\ 0&2&0 \end{pmatrix} \end{array}

 

演算子を表す行列の中身が変わりましたね。

はい、つまり「基底」によって、

行列表示されたものの中身は変わるんです。

 

 

 

一応、基底の話を少ししておきます。

 

 

この基底ですけど、↑の説明だけだと、

なんだか好きに定めてもいい感じがしませんか?

 

 

いやまあ、実際は、

好きにとっていいわけではなくて、

条件ってのはちゃんとあるんですけど、

 

 

じゃあどういうのがいいの? って話ですよね。

 

 

感覚的な説明としては、

『伸び縮みさせると全部表せる』やつ

って感じなんですけど、まあ、はい。

 

 

詳しくは省きますが、

↓の条件を満たすものですね。

 

\begin{array}{rlc} \displaystyle a_1x_1+a_2x_2+a_3x_3&=0 \\ \\ ⇒\,\,\,\,\,a_1=a_2=a_3&=0 \end{array}

 

\begin{array}{rrl} \displaystyle \sum_{i=1}^{n}a_ix_i&=a_1x_1+a_2x_2+\cdots+a_nx_n&=0 \\ \\ &⇒\,\,\,\,\,a_1=a_2=\cdots=a_n&=0 \end{array}

 

まあ見てわかると思いますが、

↑は「 x_ia_i 倍」すれば、

いろんな関数↓が作れる、みたいなことを言ってます。

 

\begin{array}{rlc} \displaystyle f(x_i)&=a_0x_0+a_1x_1+…+a_nx_n \\ \\ \\ \displaystyle f(x_i)&=a_0x^0+a_1x^1…+a_nx^n \\ \\ \displaystyle f(x_i)&=a_0e^{i0x}+a_1e^{i1x}…+a_ne^{inx} \end{array}

 

なので、これが基底を定める条件だっていうのは、

なんとなーくわかるかと。

 

 

まあですから、

こういう『 a_i 倍される x_i の集まり』を、

意味のあるものとして、「基底」って呼んでるんですね。

 

 

 

で、そもそもなんでこれが必要なのかって話ですけど、

これ、量子力学の「基礎方程式」で使われてるんです。

ですから、知らないことには始まりません。

 

\displaystyle \hat{H}=\begin{pmatrix} \displaystyle-\frac{ℏ^2}{2m}\frac{d^2 }{d q^2} & U(q) \end{pmatrix}

 

具体的には、こういう「物理量 \hat{H} 」を『行列表示』して、

『演算子として表す』ことで、

量子の状態なんかを記述してます。

 

 

行列を「取り得る値の集まり」として考えると、

『位置・運動量』なんかを「行列表示」して、

「行列の感覚で導けるようにできる」ので。

 

 

 

『物理量(関数)』を『演算子として考える』ってのは、

学校で習った数学の感覚じゃよく分からんと思いますが、

要は↑みたいな話なので、難しく考えないでください。

 

 

 

>>続き