Categories
Yuki's Diary 日記

英語で数学〜行列・ベクトル〜

数学で出てくる用語を英語であらわしてみます。

基本的な数と式に関する英語はこちらをごらんください。

上のエントリーではおもに1次元の数、つまりスカラー (scalar) のことを取り上げていましたが、数には多次元のものがあります。

行列

行列 (matrix 複数形は matrices)とは、

\[ \left( \begin{array}{cccc} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{array} \right) \]

のように、複数の数を縦と横に矩形状に配列したものです。

\[ \begin{array}{c} a_{1j} \\ a_{2j} \\ \vdots \\ a_{mj} \end{array} \]

のように縦に並んだ一筋を (column) 、\( \begin{array}{cccc} a_{i1} & a_{i2} & \cdots & a_{in} \end{array}\) のように横に並んだ一筋を (row)といいます。上記の行列は\(m\)行\(n\)列なので、 \(m\times n\)型の行列 (\(m\times n\) matrix) といいます。

上の行列の \(a_{ij}\) を行列の\( (i, j) \)成分 (\((i, j)\)-component) といいます。

同じ行数と列数を持つ行列どうしはたし算 (addition) とひき算 (subtraction) ができます。

\[ \left( \begin{array}{cccc} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{array} \right) + \left( \begin{array}{cccc} b_{11} & b_{12} & \cdots & b_{1n} \\ b_{21} & b_{22} & \cdots & b_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ b_{m1} & b_{m2} & \cdots & b_{mn} \end{array} \right) \\ = \left( \begin{array}{cccc} a_{11}+b_{11} & a_{12}+b_{12} & \cdots & a_{1n}+b_{1n} \\ a_{21}+b_{21} & a_{22}+b_{22} & \cdots & a_{2n}+b_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1}+b_{m1} & a_{m2}+b_{m2} & \cdots & a_{mn}+b_{mn} \end{array} \right) \\ \left( \begin{array}{cccc} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{array} \right)-\left( \begin{array}{cccc} b_{11} & b_{12} & \cdots & b_{1n} \\ b_{21} & b_{22} & \cdots & b_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ b_{m1} & b_{m2} & \cdots & b_{mn} \end{array} \right) \\ = \left( \begin{array}{cccc} a_{11}-b_{11} & a_{12}-b_{12} & \cdots & a_{1n}-b_{1n} \\ a_{21}-b_{21} & a_{22}-b_{22} & \cdots & a_{2n}-b_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1}-b_{m1} & a_{m2}-b_{m2} & \cdots & a_{mn}-b_{mn} \end{array} \right)\]

です。

行列にスカラー値をかけることができます。行列にスカラー値 \(c\) をかけると、

\[ c\left( \begin{array}{cccc} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{array} \right) = \left( \begin{array}{cccc} ca_{11} & ca_{12} & \cdots & ca_{1n} \\ ca_{21} & ca_{22} & \cdots & ca_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ ca_{m1} & ca_{m2} & \cdots & ca_{mn} \end{array} \right)\]

のようになります。

\[ \left( \begin{array}{cccc} a_{11} & a_{12} & \cdots & a_{1n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{array} \right) \left( \begin{array}{ccccc} b_{11} & b_{12} & b_{13} & \cdots & b_{1k} \\ b_{21} & b_{22} & b_{23} & \cdots & b_{2k} \\ \vdots & \vdots & \ddots & \vdots \\ b_{n1} & b_{n2} & b_{n3} & \cdots & b_{nk} \end{array} \right) \]

のように、左側の行列の列の数と右側の行列の行の数が同じであれば、行列どうしのかけ算が可能です。この場合、かけた結果は

\[ \sum_{i=1}^n\left( \begin{array}{ccccc} a_{1i}b_{i1} & a_{1i}b_{i2} & a_{1i}b_{i3} & \cdots & a_{1i}b_{ik} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ a_{mi}b_{i1} & a_{mi}b_{i2} & a_{mi}b_{i3} & \cdots & a_{mi}b_{ik} \end{array} \right) \]

となり、\(m\)行\(k\)列の行列になります。

\[ A=\left( \begin{array}{ccccc} a_{11} & a_{12} & a_{13} & \cdots & a_{1n} \\ a_{21} & a_{22} & a_{23} & \cdots & a_{2n} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & a_{m3} & \cdots & a_{mn} \end{array} \right) \]

に対し、行と列の値を入れ替えたもの

\[ \left( \begin{array}{cccc} a_{11} & a_{21} & \cdots & a_{m1} \\ a_{12} & a_{22} & \cdots & a_{m2} \\ a_{13} & a_{23} & \cdots & a_{m3} \\ \vdots & \vdots & \ddots & \vdots \\ a_{1n} & a_{2n} & \cdots & a_{mn} \end{array} \right) \]

を、行列\(A\)の転置行列 (transposed matrix) といい、\({}^t\!A\)のように書きます。

行と列の数が同じ場合、そのような行列を正方行列 (square matrix) といいます。正方行列には行列式 (determinant) が定義されます。行列\(A\)に対する行列式を\(|A|\)あるいは\(\det (A)\)のように書きます。行列 \(A\)と\(B\)の積\(AB\)の行列式\(\det (AB)\)は、行列 \(A\)の行列式と行列\(B\)の行列式の積\(\det (A)\det(B)\)に等しくなります。

正方行列の対角成分の和 \(a_{11}+a_{22}+…+a_{nn}\) のことを対角和 (trace) といい、\(\mathrm{Tr}A\)のように書きます。

\[ I=\left( \begin{array}{cccc} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & 1 \end{array} \right) \]

となるような正方行列\(I\)のことを単位行列 (identity matrix) といいます。正方行列\(A\)の左からかけても右からかけても単位行列となるような行列を\(A\)の逆行列 (inverse) といい、\(A^{-1}\)のようにあらわします。逆行列は、\(A\)の余因子行列 (adjugate matrix) \(\tilde{A}\)を\(A\)の行列式で割ったものとして \(A^{-1} = \tilde{A}/\det(A)\)のように求められます。\(\det(A)=0\) の場合、そのような行列\(A\)には逆行列が存在しません。そのような行列は特異である (singular) といい、特異な行列のことを特異行列 (singular matrix) といいます。特異でない、逆行列の存在する行列は、正則である (regular) といい、そのような行列のことを正則行列 (regular matrix) あるいは可逆行列 (invertible matrix) といいます。

ベクトル

1行あるいは1列の行列のことをベクトル (vector) といい、\(\vec{a}\)や\(\overrightarrow{AB}\)などのように上に矢印をつけてあらわしたり、太字であらわしたりします。

\[ \vec{x} = (x_1, x_2, … , x_n) \]

のように、 \(n\) 個の要素 (element) からなるベクトルを \(n\) 次元ベクトルといいます。ベクトルの要素のことを成分 (component / entry) とよぶこともあります。

\[ \vec{x} = \left( \begin{array}{c} x_1 \\ x_2 \\ \vdots \\ x_n \end{array} \right) \]

のように縦に並べる書き方もあります。

ベクトルには向き (direction) と大きさ (magnitude) があり、ベクトルの大きさのことを \(|\vec{a}|\) のようにあらわします。\(\vec{a}=(a_1, a_2, …, a_n)\)の大きさは

\[ |\vec{a}| = \sqrt{\sum_{k=1}^na_k^2} \]

というスカラー値となります。大きさが\(1\)のベクトルのことを単位ベクトル (unit vector) といいます。

同じ次元のベクトルはたし算 (addition) 、引き算 (subtraction) ができます。\(\vec{a}=(a_1, a_2, …, a_n), \vec{b}=(b_1, b_2, …, b_n)\)の和 (sum) は

\[ \vec{a} + \vec{b} = (a_1+b_1, a_2+b_2, … , a_n+b_n) \\ \vec{a}-\vec{b} = (a_1-b_1, a_2-b_2, … , a_n-b_n) \]

というベクトルとなります。

スカラーと同様、交換法則 (commutative property) 、つまり\( \vec{a} + \vec{b} = \vec{b} + \vec{a}\)が成り立ちます。また結合法則 (associative property) \( \vec{a} + (\vec{b}+\vec{c}) = (\vec{a} + \vec{b}) + \vec{c}\) も成り立ちます。

ベクトルにスカラー値をかけることができます。\(\vec{a}=(a_1, a_2, …, a_n)\)にスカラー値 \(c\) をかけると、

\[ c\vec{a} = (ca_1, ca_2, …, ca_n) \]

というベクトルとなります。このように、和(差)とスカラー倍を取る事ができる性質を線型性 (linearity) といいます。

スカラーとのかけ算では分配法則 (distributive property) が成り立ちます。つまり \( (k+l)\vec{a} = k\vec{a}+l\vec{a}\) 、\(k(\vec{a}+\vec{b}) = k\vec{a}+k\vec{b}\) です。

同じ次元のベクトルどうしで掛け算もできます。ベクトルどうしの掛け算には
内積 (dot product) \(\vec{a} \cdot \vec{b}\)
外積 (cross product または vector product) \(\vec{a} \times \vec{b}\)
テンソル積 (tensor product) \(\vec{a} \otimes \vec{b}\)
があります。\(\vec{a}=(a_1, a_2, …, a_n), \vec{b}=(b_1, b_2, …, b_n)\)の内積、外積、テンソル積はそれぞれ

\[ \vec{a} \cdot \vec{b} = \sum_{k=1}^na_kb_k = |\vec{a}||\vec{b}|\cos\theta \\ (\vec{a}と\vec{b}とのなす角が\thetaのとき) \]

\[ \vec{a} \times \vec{b} = (a_2b_3-a_3b_2, a_3b_1-a_1b_3, a_1b_2-a_2b_1) \\ (n=3のとき) \]

\[ \vec{a} \otimes \vec{b} = \left( \begin{array}{cccc} a_1b_1 & a_1b_2 & \cdots & a_1b_n \\ a_2b_1 & a_2b_2 & \cdots & a_2b_n \\ \vdots & \vdots & \ddots & \vdots \\ a_nb_1 & a_nb_2 & \cdots & a_nb_n \end{array} \right) \]

となります。内積はスカラー、外積はベクトル、テンソル積は行列となります。外積は、1次元ベクトル、3次元ベクトル、7次元ベクトルどうしの場合にかぎり、求めることができます。

内積は交換性 (commutativity) をもちます。つまり \(\vec{a}\cdot \vec{b} = \vec{b}\cdot \vec{a}\)が成り立ちます。また分配法則 (distributive property) \(\vec{a}\cdot(\vec{b}+\vec{c})=\vec{a}\cdot \vec{b}+\vec{a}\cdot \vec{c}\)が成り立ちます。

\( \vec{c} = \vec{a} \times \vec{b}\)のとき、\(\vec{c}\)と\(\vec{a}\)、\(\vec{b}\)とは直交しています。これを\( \vec{c} \perp \vec{a}\)、\( \vec{c} \perp \vec{b}\)のようにあらわします。

\(\vec{a} \times \vec{a} = \vec{0} \)になります。\(\vec{0}\)は零ベクトル (zero vector) を示し、大きさが\(0\)のベクトルのことを言います。1次元ベクトルどうしの外積も零ベクトルになります。

\(\vec{a}\)と\(\vec{b}\)が平行 (parallel) 、つまり向きが同じであるとき、\(\vec{a} \parallel \vec{b}\)のようにあらわします。\(\vec{a}\)と\(\vec{b}\)が平行でなく、零ベクトルでもない場合、\(\vec{a}\)と\(\vec{b}\)は1次独立あるいは線型独立 (linearly independent) であるといい、どのベクトルも \(k\vec{a}+l\vec{b}\)(\(k\)、\(l\):スカラー)の形に分解してあらわすことができます。\(\vec{a}\)と\(\vec{b}\)が平行であれば、\(\vec{a}\)と\(\vec{b}\)は1次従属あるいは線形従属 (linearly dependent) であるといいます。

ベクトルの微分 (differentiation) は、

\[ \nabla = \left( \frac{\partial}{\partial x_1}, \frac{\partial}{\partial x_2}, …, \frac{\partial}{\partial x_n} \right) \]

というベクトル演算子を使うことにより可能です。この \( \nabla \) をナブラ (nabla) といいます。ベクトルの微分のしかたには、スカラー値を各成分ごとに微分するもの、ナブラとベクトルの内積を求めるもの、ナブラとベクトルの外積を求めるものがあります。

\[ \nabla f = \left( \frac{\partial f}{\partial x_1}, \frac{\partial f}{\partial x_2}, …, \frac{\partial f}{\partial x_n} \right) \]

\[ \nabla \cdot \vec{v} = \frac{\partial v_1}{\partial x_1}+\frac{\partial v_2}{\partial x_2}+\cdots+\frac{\partial v_n}{\partial x_n} \]

\[ \nabla \times \vec{v} = \left( \frac{\partial v_z}{\partial y}-\frac{\partial v_y}{\partial z}, \frac{\partial v_x}{\partial z}-\frac{\partial v_z}{\partial x}, \frac{\partial x_y}{\partial x}-\frac{\partial v_x}{\partial y} \right) \\ \mathrm{(where} \nabla = (\partial/\partial x, \partial/\partial y, \partial/\partial z), \vec{v} = (v_x, v_y, v_z)\mathrm{)} \]

上を勾配 (gradient) 、中を発散 (divergence) 、下を回転 (curl / rotation) といいます。\( \nabla \cdot \vec{v} = \mathrm{div} \vec{v}\)、\( \nabla \times \vec{v} = \mathrm{curl} \vec{v}\)とあらわすこともあります。勾配、回転はベクトル、発散はスカラーになります。

行列とベクトルの演算

ベクトルの左側に行列をかけ算することにより、ベクトルに対して演算を加えることができます。 \(n\)次元ベクトルを\(m\times n\)型の行列で演算すると、\(m\)次元ベクトルが得られます。

\[ \left( \begin{array}{cccc} a_{11} & a_{12} & \cdots & a_{1n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{array} \right) \left( \begin{array}{c} b_1 \\ b_2 \\ \vdots \\ b_n \end{array} \right) = \sum_{i=1}^n\left( \begin{array}{c} a_{1i}b_{i} \\ \vdots \\ a_{mi}b_{i} \end{array} \right) \]

連立一次方程式

\[ x+2y+3z=4 \\ 5x+6y+7z=8 \\ 9x+10y+11z=12 \]

があったとき、上の式は

\[ \left( \begin{array}{ccc} 1 & 2 & 3 \\ 5& 6 & 7 \\ 9 & 10 & 11 \end{array} \right)\left( \begin{array}{c} x \\ y \\ z \end{array} \right) = \left( \begin{array}{c} 4 \\ 8 \\ 12 \end{array} \right) \]

と書き換えることができます。この行列の逆行列を求め、左からかけると

\[ \left( \begin{array}{c} x \\ y \\ z \end{array} \right) = \left( \begin{array}{ccc} 1 & 2 & 3 \\ 5 & 6 & 7 \\ 9 & 10 & 11 \end{array} \right)^{-1}\left( \begin{array}{c} 4 \\ 8 \\ 12 \end{array} \right) \]

となり、ベクトル \((x, y, z)\)の値が求められます。これはつまり、上の連立方程式を解いていることにほかなりません。

一般に、連立一次方程式は \(A\vec{x}=\vec{b}\)のような行列とベクトルの演算の形であらわすことができます。\(\vec{b}=\vec{0}\)の場合、このような方程式は斉次である (homogeneous) といいます。

参考

Math is Fun
Wikipedia各種ページ

By Masayuki (Yuki) Kawagishi

A telco worker. A wannabe life hacker seeking lifestyle X-formation. He/Him. Tokyo, JP.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.