Pengguna:Kekavigi/bak pasir

Dalam aljabar linear, minor dari matriks adalah determinan dari beberapa matriks persegi kecil, yang dibentuk dengan menghapus satu atau lebih baris-dan-kolom matriks . Minor yang diperoleh dengan hanya menghapus satu baris dan satu kolom dari matriks persegi (disebut dengan minor pertama) diperlukan untuk menghitung matriks kofaktor, yang pada gilirannya berguna untuk menghitung determinan dan invers dari matriks persegi.

Definisi dan ilustrasi

Minor pertama

Jika   adalah sebuah matriks persegi, maka minor dari entri baris ke-  dan kolom ke-  matriks tersebut, adalah determinan dari submatriks yang dibentuk dengan menghapus baris ke-  dan kolom ke- . Determinan ini juga disebut dengan minor  , atau minor pertama[1]. Bilangan ini seringkali dilambangkan  . Bilangan lain yang disebut kofaktor   diperoleh dengan mengalikan minor tersebut oleh  .

Untuk mengilustrasikan definisi-definisi tersebut, tinjau matriks   berikut,

 
Minor   didapatkan dari menghitung determinan dari matriks yang baris ke-2 dan kolom ke-3-nya telah dihapus:
 
dan kofaktor C_{2,3} adalah
 

Definisi umum

Misalkan   adalah sebuah matriks berukuran   dan   adalah sebuah bilangan bulat dengan  , dan  . Sebuah minor   dari   adalah determinan dari sebuah matriks berukuran   yang diperoleh dengan menghapus   baris dan   kolom dari  . Determinan ini juga disebut determinan minor dengan orde   dari  , atau jika  , disebut dengan determinan minor ke-  dari   (kata "determinan" seringkali dihilangkan, dan kata "derajat" terkadang digunakan sebagai pengganti "orde"). Terkadang istilah ini digunakan untuk merujuk ke matriks   yang diperoleh dari   dengan cara di atas (yakni dengan menghapus   baris dan   kolom), tetapi matriks ini harus dirujuk ke determinan dari matriks ini.

Untuk matriks   di atas, terdapat   minor berukuran  . Minor dengan orde nol sering didefinisikan bernilai  . Pada kasus matriks persegi, minor ke-nol hanyalah determinan dari matriks.[2][3]

Misalkan   dan   adalah suatu barisan terurut[4] dari indeks, sebut mereka masing-masing sebagai   dan  . Terdapat beberapa notasi untuk menyebut minor

 
yang berkorespondensi dengan pilihan-pilihan dari indeks ini. Tergantung pada sumber yang digunakan, notasi untuk minor tersebut adalah  ,  ,  ,  , atau   (dengan   melambangkan barisan indeks  , dan seterusnya). Juga, terdapat dua tipe dari denotasi-denotasi digunakan dalam literaturː dengan minor dikaitkan ke barisan yang diurutkan dari indeks   dan  , beberapa penulis[5] bermaksud determinan dari matriks yang dibentuk seperti di atas, dengan mengambil anggota-anggota dari matriks asli dari baris yang indeksnya ada di   dan kolom yang indeksnya ada di  , sedangkan beberapa penulis lainnya bermaksud dengan sebuah minor dikaitkan ke   dan   determinan dari matriks dibentuk dari matriks asli dengan menghapuskan baris dalam   dan kolom dalam  .[2] Yang notasinya digunakan seharusnya selalui diperiksa dari sumber dalam pertanyaan. Dalam artikel ini, kita menggunakan definisi yang inklusif dalam memilih anggota-anggota dari baris   dan kolom  . Kasus luar biasanya adalah kasus dari minor pertama atau minor ke-  dijelaskan di atas; dalam kasus itu, notasi yang eksklusif  

standar di mana-mana di literatur dan digunakan dalam artikel ini juga.

Komplemen

Komplemen,  , dari sebuah minor  , dari sebuah matriks persegi,  , dibentuk oleh determinan dari matriks   dari mana semua baris   dan kolom   dikaitkan dengan   telah dihapus. Komplemen dari minor pertama dari sebuah anggota   hanyalah anggota itu.[6]

Penerapan minor dan kofaktor

Ekspansi kofaktor dari determinan

Fitur kofaktor secara mencolok dalam rumus Laplace untuk ekspansi dari determinan-determinan, yang sebuah metode dari penghitungan determinan lebih besar dalam hal yang lebih kecil. Diberikan sebuah matriks   yaitu  , determinan  , dilambangkan  , bisa ditulis sebagai penjumlahan dari kofaktor-kofaktor dari setiap baris dan kolom dari matriks dikalikan dengan entri-entri yang dihasilkan mereka. Dengan kata lain, mendefinisikan   maka ekspansi kofaktor sepanjang kolom ke-  memberikanː

Ekspansi kofaktor sepanjang baris ke-  memberikanː

 

Invers dari sebuah matriks

Salah satunya bisa menuliskan invers dari matriks invertible dengan menghitung kofaktor-kofaktor dengan menggunakan aturan Cramer, seperti berikut. Matriks dibentuk oleh semua dari kofaktor-kofaktor dari sebuah matriks persegi   disebut matriks kofaktor (juga disebut matriks dari kofaktor atau komatriks

 

Maka invers dari   transpose dari matriks kofaktor dikali kebalikan dari determinan  ː

 

Transpose dari matriks kofaktor disebut matriks adjugat (juga disebut adjoin klasik) dari  .

Rumus di atas bisa dihaislkan sebagai berikut. Misalkan   dan menjadi   barisan urutan (dalam urutan alami) dari indeks (disini   adalah sebuat matriks  ). Maka[7]

 

di mana   dan   melambangkan barisan urutan dari indeks (indeks dalam urutan besar yang wajar, seperti di atas) melengkapi  ,  , sehingga setiap indeks   muncul tepat sekali di salah satu   atau  , tapi tidak di keduanya (demikian pula untuk   dan  ) dan   melambangkan determinan dari submatriks   dibentuk dengan memilih baris dari himpunan indeks   dan kolom dari himpunan indeks  . Juga  . Sebuah bukti sederhana bisa diberikan menggunakan produk wedge. Tentunya,

 

di mana   adalah vektor basis. Tindakan oleh   ada kedua sisi, salah satunya mendapatkan

 

Tandanya bisa berhasil menjadi  , jadi tandanya dideterminasikan oleh penjumlahan-penjumlahan pada anggota-anggota di   dan  .

Penerapan lainnya

Diberikan sebuah matriks   dengan entri-entri real (atau entri-entri dari setiap bidang lainnya) dan rank  , maka terdapat setidaknya satu minor   tak nol, sementara semua minor-minor yang besar adalah nol.

Kita akan menggunakan notasi berikut untuk minor. Jika   adalah sebuah matriks  ,   adalah himpunan bagian dari   dengan anggota  , dan   adalah himpunan bagian dari   dengan anggota  , maka kita menulis   untuk minor   pada   yang sesuai dengan baris dengan indeks dalam   dan kolom dengan indeks dalam  .

  • Jika  , maka   disebut minor utama.
  • Jika matriks yang sesuai dengan minor utama adalah kuadrat bagian atas-kiri dari matriks yang besar (yaitu, itu terdiri dari anggota-anggota matriks dalam baris-baris dan kolom-kolom dari   hingga  ), maka minor utama disebut sebuah minor utama terkemuka (dari urutan  ) atau minor sudut (utama) (dari urutan  ).[3] Untuk sebuah matriks persegi  , terdapat minor utama terkemuka  .
  • Sebuah minor dasar dari sebuah matriks adalah determinan dari sebuah submatriks persegi yang dari ukuran maksimal dengan determinan tidak nol.[3]
  • Untuk matriks Hermite, minor utama terkemuka bisa digunakan untuk menguji ketentuan positif dan minor utama bisa digunakan untuk menguji kesemitentuan positif. Lihat kriteria Sylvester untuk detail lebih lanjut.

Kedua rumus untuk perkalian matriks biasa dan rumus Cauchy–Binet untuk determinan dari produk dua matriks adalah kasus spesial dari pernyataan umum berikut tentang minor-minor dari sebuah produk dua matriks. Andaikan   adalah sebuah matriks  ,   adalah sebuah matriks  ,   adalah himpunan bagian dari   dengan anggota   dan   adalah himpunan bagian dari   dengan anggota  . Maka

 

di mana penjumlahan meluas ke semua himpunan bagian   dari   dengan anggota  . Rumus ini merupakan sebuah ekstensi langsung dari rumus Cauchy–Binet.

Pendekatan aljabar multilinear

Lebih sistematis, perlakuan aljabar dari minor-minor diberikan dalam aljabar multilinear, menggunakan produk wedge, minor-  dari sebuah matriks adalah entri-entri dalam pemetaan pangkat eksterior ke- .

Jika kolom-kolom dari sebuah matriks terjepit bersama   pada satu waktu, minor   muncul sebagai komponen-komponen dari hasil vektor  . Sebagai contoh, minor   dari matriks

 

adalah   (dari dua baris pertama),   (dari baris pertama dan terakhir), dan   (dari dua baris terakhir). Sekarang tinjau produk wedge

 

di mana kedua ekspresi sesuai dengan dua kolom dari matriks kita. Menggunakan sifat-sifat dari produk wedge, yaitu bilinear dan bergantian,

 

dan antisimteris

 

kita bisa menyederhanakan ekspresi ini menjadi

 

di mana koefisien sesuai dengan minor-minor yang ditung sebelumnya.

Sebuah komentar tentang notasi yang berbeda

Dalam beberapa buku, daripada kofaktor , istilah adjunct digunakan.[8] Bahkan, ini dilambangkan sebagai   dan didefiniskan dalam cara yang sama sebagai kofaktorː

 

Menggunaan notasi ini, invers matriks ditulis dengan cara ini.

 

Ingat bahwa adjunct bukanlah adjugat atau adjoin. Dalam termonologi modern, "adjoin" dari sebuah matriks paling sering mengacu pada yang sesuai, operator adjoin.

Lihat pula

Referensi

  1. ^ Burnside, William Snow & Panton, Arthur William (1886) Theory of Equations: with an Introduction to the Theory of Binary Algebraic Form.
  2. ^ a b Elementary Matrix Algebra (Third edition), Franz E. Hohn, The Macmillan Company, 1973, ISBN 978-0-02-355950-1
  3. ^ a b c "Minor". Encyclopedia of Mathematics. 
  4. ^ dengan urutan alami, asumsi yang umum digunakan ketika berbicara tentang minor, kecuali dinyatakan lain.
  5. ^ Linear Algebra and Geometry, Igor R. Shafarevich, Alexey O. Remizov, Springer-Verlag Berlin Heidelberg, 2013, ISBN 978-3-642-30993-9
  6. ^ Bertha Jeffreys, Methods of Mathematical Physics, p.135, Cambridge University Press, 1999 ISBN 0-521-66402-0.
  7. ^ Viktor Vasil_evich Prasolov (13 June 1994). Problems and Theorems in Linear Algebra. American Mathematical Soc. hlm. 15–. ISBN 978-0-8218-0236-6. 
  8. ^ Felix Gantmacher, Theory of matrices (1st ed., original language is Russian), Moscow: State Publishing House of technical and theoretical literature, 1953, p.491,

Pranala luar


---


Definition and illustration

First minors

If A is a square matrix, then the minor of the entry in the ith row and jth column (also called the (i, j) minor, or a first minor[1]) is the determinant of the submatrix formed by deleting the ith row and jth column. This number is often denoted Mi,j. The (i, j) cofactor is obtained by multiplying the minor by  .

To illustrate these definitions, consider the following 3 by 3 matrix,

 

To compute the minor M2,3 and the cofactor C2,3, we find the determinant of the above matrix with row 2 and column 3 removed.

 

So the cofactor of the (2,3) entry is

 

General definition

Let A be an m × n matrix and k an integer with 0 < km, and kn. A k × k minor of A, also called minor determinant of order k of A or, if m = n, (nk)th minor determinant of A (the word "determinant" is often omitted, and the word "degree" is sometimes used instead of "order") is the determinant of a k × k matrix obtained from A by deleting mk rows and nk columns. Sometimes the term is used to refer to the k × k matrix obtained from A as above (by deleting mk rows and nk columns), but this matrix should be referred to as a (square) submatrix of A, leaving the term "minor" to refer to the determinant of this matrix. For a matrix A as above, there are a total of   minors of size k × k. The minor of order zero is often defined to be 1. For a square matrix, the zeroth minor is just the determinant of the matrix.[2][3]

Let   and   be ordered sequences (in natural order, as it is always assumed when talking about minors unless otherwise stated) of indexes, call them I and J, respectively. The minor   corresponding to these choices of indexes is denoted   or   or   or   or   or   (where the   denotes the sequence of indexes I, etc.), depending on the source. Also, there are two types of denotations in use in literature: by the minor associated to ordered sequences of indexes I and J, some authors[4] mean the determinant of the matrix that is formed as above, by taking the elements of the original matrix from the rows whose indexes are in I and columns whose indexes are in J, whereas some other authors mean by a minor associated to I and J the determinant of the matrix formed from the original matrix by deleting the rows in I and columns in J.[2] Which notation is used should always be checked from the source in question. In this article, we use the inclusive definition of choosing the elements from rows of I and columns of J. The exceptional case is the case of the first minor or the (i, j)-minor described above; in that case, the exclusive meaning   is standard everywhere in the literature and is used in this article also.

Complement

The complement, Bijk...,pqr..., of a minor, Mijk...,pqr..., of a square matrix, A, is formed by the determinant of the matrix A from which all the rows (ijk...) and columns (pqr...) associated with Mijk...,pqr... have been removed. The complement of the first minor of an element aij is merely that element.[5]

Applications of minors and cofactors

Cofactor expansion of the determinant

The cofactors feature prominently in Laplace's formula for the expansion of determinants, which is a method of computing larger determinants in terms of smaller ones. Given an n × n matrix  , the determinant of A, denoted det(A), can be written as the sum of the cofactors of any row or column of the matrix multiplied by the entries that generated them. In other words, defining   then the cofactor expansion along the j th column gives:

 

The cofactor expansion along the i th row gives:

 

Inverse of a matrix

One can write down the inverse of an invertible matrix by computing its cofactors by using Cramer's rule, as follows. The matrix formed by all of the cofactors of a square matrix A is called the cofactor matrix (also called the matrix of cofactors or, sometimes, comatrix):

 

Then the inverse of A is the transpose of the cofactor matrix times the reciprocal of the determinant of A:

 

The transpose of the cofactor matrix is called the adjugate matrix (also called the classical adjoint) of A.

The above formula can be generalized as follows: Let   and   be ordered sequences (in natural order) of indexes (here A is an n × n matrix). Then[6]

 

where I′, J′ denote the ordered sequences of indices (the indices are in natural order of magnitude, as above) complementary to I, J, so that every index 1, ..., n appears exactly once in either I or I′, but not in both (similarly for the J and J′) and   denotes the determinant of the submatrix of A formed by choosing the rows of the index set I and columns of index set J. Also,  . A simple proof can be given using wedge product. Indeed,

 

where   are the basis vectors. Acting by A on both sides, one gets

 

The sign can be worked out to be  , so the sign is determined by the sums of elements in I and J.

Other applications

Given an m × n matrix with real entries (or entries from any other field) and rank r, then there exists at least one non-zero r × r minor, while all larger minors are zero.

We will use the following notation for minors: if A is an m × n matrix, I is a subset of {1,...,m} with k elements, and J is a subset of {1,...,n} with k elements, then we write [A]I,J for the k × k minor of A that corresponds to the rows with index in I and the columns with index in J.

  • If I = J, then [A]I,J is called a principal minor.
  • If the matrix that corresponds to a principal minor is a square upper-left submatrix of the larger matrix (i.e., it consists of matrix elements in rows and columns from 1 to k, also known as a leading principal submatrix), then the principal minor is called a leading principal minor (of order k) or corner (principal) minor (of order k).[3] For an n × n square matrix, there are n leading principal minors.
  • A basic minor of a matrix is the determinant of a square submatrix that is of maximal size with nonzero determinant.[3]
  • For Hermitian matrices, the leading principal minors can be used to test for positive definiteness and the principal minors can be used to test for positive semidefiniteness. See Sylvester's criterion for more details.

Both the formula for ordinary matrix multiplication and the Cauchy–Binet formula for the determinant of the product of two matrices are special cases of the following general statement about the minors of a product of two matrices. Suppose that A is an m × n matrix, B is an n × p matrix, I is a subset of {1,...,m} with k elements and J is a subset of {1,...,p} with k elements. Then

 

where the sum extends over all subsets K of {1,...,n} with k elements. This formula is a straightforward extension of the Cauchy–Binet formula.

Multilinear algebra approach

A more systematic, algebraic treatment of minors is given in multilinear algebra, using the wedge product: the k-minors of a matrix are the entries in the kth exterior power map.

If the columns of a matrix are wedged together k at a time, the k × k minors appear as the components of the resulting k-vectors. For example, the 2 × 2 minors of the matrix

 

are −13 (from the first two rows), −7 (from the first and last row), and 5 (from the last two rows). Now consider the wedge product

 

where the two expressions correspond to the two columns of our matrix. Using the properties of the wedge product, namely that it is bilinear and alternating,

 

and antisymmetric,

 

we can simplify this expression to

 

where the coefficients agree with the minors computed earlier.

A remark about different notation

In some books, instead of cofactor the term adjunct is used.[7] Moreover, it is denoted as Aij and defined in the same way as cofactor:

 

Using this notation the inverse matrix is written this way:

 

Keep in mind that adjunct is not adjugate or adjoint. In modern terminology, the "adjoint" of a matrix most often refers to the corresponding adjoint operator.

See also

References

  1. ^ Burnside, William Snow & Panton, Arthur William (1886) Theory of Equations: with an Introduction to the Theory of Binary Algebraic Form.
  2. ^ a b Elementary Matrix Algebra (Third edition), Franz E. Hohn, The Macmillan Company, 1973, ISBN 978-0-02-355950-1
  3. ^ a b c "Minor". Encyclopedia of Mathematics. 
  4. ^ Linear Algebra and Geometry, Igor R. Shafarevich, Alexey O. Remizov, Springer-Verlag Berlin Heidelberg, 2013, ISBN 978-3-642-30993-9
  5. ^ Bertha Jeffreys, Methods of Mathematical Physics, p.135, Cambridge University Press, 1999 ISBN 0-521-66402-0.
  6. ^ Viktor Vasil_evich Prasolov (13 June 1994). Problems and Theorems in Linear Algebra. American Mathematical Soc. hlm. 15–. ISBN 978-0-8218-0236-6. 
  7. ^ Felix Gantmacher, Theory of matrices (1st ed., original language is Russian), Moscow: State Publishing House of technical and theoretical literature, 1953, p.491,

External links