線形代数の学習で必ずつまずく概念のひとつが「線形独立」です。
「線形従属と何が違うの?」「判定方法はどうするの?」「行列とどう関係するの?」と疑問を感じる方も多いでしょう。
本記事では、線形独立の定義・線形従属との違い・判定条件・具体的な判定方法を、わかりやすく解説していきます。
具体的な計算例を通して理解を深めていただけるよう丁寧に説明しますので、ぜひ最後までご覧ください。
線形独立とは?その意味と定義をわかりやすく解説
それではまず、線形独立の意味と定義について解説していきます。
ベクトルの集合 {v₁, v₂, …, vₙ} が線形独立(linearly independent)であるとは、次の条件を満たすことを言います。
【線形独立の定義】
c₁v₁ + c₂v₂ + … + cₙvₙ = 0
を満たすスカラーが c₁ = c₂ = … = cₙ = 0 のみであること
直感的に言えば、「どのベクトルも他のベクトルの一次結合(線形結合)で表せない」状態が線形独立です。
たとえば v₁ = (1, 0), v₂ = (0, 1) の場合、c₁(1,0) + c₂(0,1) = (0,0) を満たすのは c₁ = c₂ = 0 のみなので、線形独立です。
線形独立の概念は、基底・次元・rank などの重要概念と深く結びついています。
線形従属とは何か
線形独立の対概念が「線形従属(linearly dependent)」です。
ベクトルの集合が線形従属であるとは、少なくとも1つのベクトルが他のベクトルの一次結合で表せることを意味します。
【線形従属の具体例】
v₁ = (1, 2), v₂ = (2, 4)
v₂ = 2v₁ であるため線形従属
c₁v₁ + c₂v₂ = 0 に c₁=2, c₂=-1 という非零解が存在する
線形従属のベクトルの集合は「冗長な情報」を含んでいると言えます。
基底は線形独立なベクトルの集合でなければならないため、従属なベクトルを基底に含めることはできません。
幾何学的な理解
2次元・3次元での線形独立・従属は幾何学的に理解しやすいでしょう。
2つのベクトルが線形独立 ↔ 2つのベクトルが平行でない(同一直線上にない)
3つのベクトルが線形独立 ↔ 3つのベクトルが同一平面上にない(1つが他の2つの組み合わせで表せない)
n個のベクトルが線形従属 ↔ ある1つのベクトルが他の (n-1) 個の一次結合で表される
幾何学的なイメージを持ちながら代数的な定義を理解することが、線形独立の概念を深く把握するコツです。
線形独立と基底・次元の関係
線形独立は基底・次元の概念と直接つながっています。
n次元線形空間の基底は、必ずn個の線形独立なベクトルで構成されます。
n+1個以上のベクトルを選ぶと必ず線形従属になります(n次元空間では n 個より多くの線形独立なベクトルを持てない)。
逆に、n個の線形独立なベクトルは自動的に n次元空間全体を張る基底になります。
線形独立の判定方法
続いては、実際に線形独立かどうかを判定する方法を確認していきます。
定義による判定
最も基本的な判定方法は定義に戻ることです。
c₁v₁ + c₂v₂ + … + cₙvₙ = 0 という方程式を立て、c₁ = c₂ = … = cₙ = 0 しか解がないかを確認します。
【定義による判定例】
v₁ = (1, 1), v₂ = (1, -1) の線形独立性を調べる
c₁(1,1) + c₂(1,-1) = (0,0)
→ c₁ + c₂ = 0 かつ c₁ – c₂ = 0
→ c₁ = 0, c₂ = 0
→ 線形独立!
行列のrankによる判定
複数のベクトルを列(または行)に並べた行列を作り、そのrankを求める方法が実用的です。
ベクトルの個数が n のとき:rank = n であれば線形独立、rank < n であれば線形従属となります。
【rankによる判定例】
v₁ = (1, 2, 3), v₂ = (4, 5, 6), v₃ = (7, 8, 9)
行列を作り行基本変形すると:
→ rank = 2 (3未満)
→ 線形従属!
行列のrankによる判定は、ベクトルの個数が多い場合でも効率的に使えます。
行列式による判定(正方行列の場合)
n個のn次元ベクトルを列に並べた正方行列の場合、行列式(det)を使って判定できます。
det(A) ≠ 0 → 線形独立(列ベクトルが線形独立)
det(A) = 0 → 線形従属(列ベクトルが線形従属)
2つのベクトル (1, 1) と (2, 2) の場合、det([[1,2],[1,2]]) = 2 – 2 = 0 なので線形従属です。
行列式による判定はn次正方行列の場合に特に有効です。
線形独立の応用:基底の求め方と次元
続いては、線形独立の概念を使った基底の求め方と次元の計算を確認していきます。
与えられたベクトルから基底を選ぶ
複数のベクトルの集合から基底を選び出す手順を見ていきましょう。
ベクトルを列に並べた行列を作り、行基本変形でピボット列を特定します。
ピボット列に対応する元のベクトルが線形独立な最大部分集合(基底の候補)になります。
ガウス消去法で線形独立なベクトルを効率的に選び出すことができます。
Gram-Schmidtの直交化
線形独立なベクトルの集合から「直交基底」を構成する手法が「グラム・シュミット(Gram-Schmidt)の直交化」です。
内積を利用して各ベクトルから既存のベクトル成分を取り除き、直交するベクトルを順に作り出します。
QR分解はグラム・シュミットの行列バージョンとして理解でき、最小二乗法・固有値計算などの数値計算で重要な役割を果たします。
機械学習での線形独立の重要性
機械学習・データサイエンスでも線形独立の概念は重要です。
特徴量(説明変数)が線形従属(強い相関を持つ多重共線性)であると、線形回帰モデルが不安定になります。
主成分分析(PCA)は元の特徴量から線形独立な主成分を抽出する手法であり、次元削減によって多重共線性を解消する効果があります。
まとめ
本記事では、線形独立の意味・線形従属との違い・判定方法・基底・次元との関係・機械学習への応用まで詳しく解説しました。
線形独立とは「ゼロベクトルへの線形結合が c₁ = … = cₙ = 0 のみで達成できる」状態を指します。
判定方法にはrank・行列式・定義による方程式の解析などがあり、目的に応じて使い分けることが大切です。
線形独立の概念は基底・次元・rank・ker・im・機械学習と幅広く関連する線形代数の核心です。
本記事を参考に、具体的な計算を通して線形独立の感覚を磨いてみてください。