Matriks (matematika): Perbedaan antara revisi

Konten dihapus Konten ditambahkan
Akuindo (bicara | kontrib)
NikolasKHF (bicara | kontrib)
k Perbaikan sedikit salah ketik.
 
(19 revisi perantara oleh 11 pengguna tidak ditampilkan)
Baris 1:
{{kegunaanlain|matriks}}
{{redirects|Teori matriks|topik fisika|Teori matriks string}}
[[Berkas:Matrix.svg|jmpl|247px|ka|Baris ''m'' adalah horizontalvertikal dan kolom ''n'' vertikalhorizontal. Setiap elemen matriks sering dilambangkan menggunakan variabel dengan dua [[notasi indeks]]. Misalnya, ''a''<sub>2,1</sub> mewakili elemen pada baris kedua dan kolom pertama dari matriks '''A'''.]]
 
Dalam [[matematika]], '''matriks''' adalah [[wikt:susunan|susunan]]<ref>Secara ekuivalen, ''[[wikt:tabel|tabel]]''.</ref> [[bilangan]], [[simbol (formal)|simbol]], atau [[Ekspresi (matematika)|ekspresi]] yang disusun dalam [[wikt:baris|baris]] dan [[wikt:kolom|kolom]] sehingga membentuk suatu bangun [[persegi]].<ref>{{harvtxt|Anton|1987|p=23}}</ref><ref>{{harvtxt|Beauregard|Fraleigh|1973|p=56}}</ref> Sebagai contoh, dimensi matriks di bawah ini adalah matriks berukuran 2 × 3 (baca "dua kali tiga"):<math display="block">\begin{bmatrix}1 & 9 & -13 \\20 & 5 & -6 \end{bmatrix}</math>karena terdiri dari dua baris dan tiga kolom:.
:<math>\begin{bmatrix}1 & 9 & -13 \\20 & 5 & -6 \end{bmatrix}.</math>
 
Setiap objek dalam matriks '''<math>\mathbf{A}</math>''' berdimensi <math>m \times n</math> sering dilambangkan dengan <math>a_{i,j}</math>, dimana nilai maksimum <math>i = m</math> dan nilai maksimum <math>j = n</math>. Objek dalam matriks disebut ''elemen'', ''entri'', atau ''anggota'' matriks.<ref>{{cite book|last1=Young|first1=Cynthia|title=Precalculus|publisher=Laurie Rosatone|page=727|accessdate=2015-02-06}}</ref>
 
Jika dua matriks memiliki dimensi yang sama (masing-masing matriks memiliki jumlah baris dan jumlah kolom yang sama), kedua matriks tersebut dapat dijumlahkan maupun dikurangkan secara elemen demi elemen. Namun, berdasarkan aturan [[perkalian matriks]], dua matriks hanya dapat dikalikan jika jumlah kolom matriks pertama sama dengan jumlah baris matriks kedua. (artinyaPerkalian ini akan menghasilkan matriks dengan ukuran jumlah baris matriks pertama dan jumlah kolom matriks kedua. Artinya, perkalian matriks <math>m \times \mathbf{n} </math> dengan matriks <math>\mathbf{n} \times p</math> menghasilkan matriks <math>m \times p</math>). Perkalian matriks tidak bersifat [[komutatif]].
 
Matriks umumnya digunakan untuk merepresentasikan [[transformasi linear]], yakni suatu generalisasi [[fungsi linear]] seperti <math>f(x) = 4x</math>. Sebagai contoh, efek [[Rotasi (matematika)|rotasi]] pada ruang [[dimensi]] tiga merupakan sebuah transformasi linear yang dapat dilambangkan dengan matriks rotasi <math>\mathbf{R}</math>. Jika <math>v</math> adalah sebuah [[Vektor (spasial)|vektor]] di dimensi tiga, hasil dari <math>\mathbf{R}v</math> menyatakan posisi titik tersebut setelah dirotasi. Hasil perkalian dari dua matriks adalah sebuah matriks yang melambangkan [[Komposisi (matematika)|komposisi]] dari dua transformasi linear. Salah satu aplikasi lain dari matriks adalah menemukan solusi [[persamaan linear|sistem persamaan linear]]. Jika matriks merupakan [[matriks persegi]], beberapa sifat dari matriks tersebut dapat diketahui dengan menghitung nilai [[determinan]]. Misalnya, matriks persegi memiliki [[Matriks invers|invers]] [[jika dan hanya jika]] nilai [[determinan]]<nowiki/>nyadeterminannya tidak sama dengan nol. Sisi [[geometri]] dari sebuah transformasi linear (dan beberapa hal lain) dapat diketahui dari ''eigenvalue'' dan ''eigenvector'' matriks.
 
Aplikasi dari matriks ditemukan pada banyak bidang sains. Pada bidang-bidang [[fisika]], contohnya [[mekanika klasik]], [[mekanika kuantum]], dan [[optika]], matriks digunakan untuk mempelajari keadaan fisis, seperti pergerakan planet. Dalam bidang ''computer[[grafika graphics''komputer]], matriks digunakan untuk memanipulasi [[model 3D]] dan memproyeksikannya ke sebuah layar dua dimensi. Pada bidang [[Peluang (matematika)|teori probabilitas]] dan [[statistika]], [[matriks stokastik]] digunakan untuk menjelaskan probabilitas keadaan; contohnya dalam algoritma [[PageRank]] dalam menentukan urutan halaman pada pencarian [[Google]]. [[Kalkulus matriks|Kalkulus matrik]]<nowiki/>s menggeneralisasi bentuk analitik klasik dari [[turunan]] dan [[Eksponensiasi|eksponensial]] ke dimensi yang lebih tinggi. Matriks juga digunakan dalam bidang [[ekonomi]] untuk menjelaskan sistem dari relasi ekonomi.
 
== Definisi ==
Baris 24 ⟶ 23:
 
=== Ukuran ===
Ukuran matriks ditentukan oleh jumlah baris dan kolom yang dikandungnya. Matriks dengan jumlah kolom <math>m</math>kolom dan jumlah baris <math>n</math>baris disebut matriks <math>m \times n</math> atau matriks "m kali n", dimana <math>m</math> dan <math>n</math> disebutadalah dimensinya. Sebagai contoh, matriks '''<math>\mathbf{A}</math>''' di atas adalah matriks <math>3 \times 2</math>. Matriks dengan satu baris disebut vektor baris, dan matriks dengan satu kolom disebut vektor kolom. Matriks dengan jumlah baris dan kolom yang sama disebut matriks persegi. Matriks dengan jumlah baris atau kolom yang tak terbatas (atau keduanya) disebut [[matriks tak terbatas]]. Dalam beberapa konteks, akan bermanfaat untuk mempertimbangkan sebuah matriks tanpa baris atau tanpa kolom, yang disebut [[matriks kosong]].
{| class="wikitable"
!Nama
Baris 52 ⟶ 51:
 
== Notasi ==
Matriks pada umumnya ditulis dalam tanda kurung siku/kurung kurawal:<math display="block"> \mathbf{A} =
<math> \mathbf{A} =
\begin{bmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
Baris 66 ⟶ 64:
a_{m1} & a_{m2} & \cdots & a_{mn}
\end{pmatrix}=\left(a_{ij}\right) \in \mathbb{R}^{m \times n}.
</math>Notasi simbolik untuk menyatakan suatu matriks sangat bervariasi, namun beberapa notasi lebih umum dipakai. Matriks biasanya dilambangkan dengan menggunakan huruf besar (seperti '''<math>\mathbf{A}</math>''' pada contoh di atas). Sedangkan huruf kecil yang sesuai, dengan dua indeks subskrip, misal <math>a_{1,1}</math>, untuk menyebutkan elemen matriks tersebut. Selain menggunakan huruf besar untuk melambangkan matriks, banyak penulis menggunakan gaya tipografi khusus, yang biasanya dicetak tebal tegak, untuk lebih membedakan matriks dari objek matematika lainnya. Notasi alternatif melibatkan penggunaan garis bawah ganda (''double-underline'') dengan nama variabel, dengan atau tanpa gaya cetak tebal (contohnya <math>\underline{\underline{A}}</math>).
</math>
 
Spesifikasi notasi simbolik dari matriks sangat bervariasi, dengan beberapa tren yang umum dipakai. Matriks biasanya dilambangkan dengan menggunakan huruf besar (seperti '''<math>\mathbf{A}</math>''' pada contoh di atas). Sedangkan huruf kecil yang sesuai, dengan dua indeks subskrip, misal <math>a_{1,1}</math>, untuk menyebutkan elemen matriks tersebut. Selain menggunakan huruf besar untuk melambangkan matriks, banyak penulis menggunakan gaya tipografi khusus, yang biasanya dicetak tebal tegak, untuk lebih membedakan matriks dari objek matematika lainnya. Notasi alternatif melibatkan penggunaan ''double-underline'' (garis bawah ganda) dengan nama variabel, dengan atau tanpa gaya cetak tebal (contohnya <math>\underline{\underline{A}}</math>).
 
Elemen baris ke-<math>i</math> dan kolom ke-<math>j</math> dari matriks '''<math>\mathbf{A}</math>''' terkadang dirujuk sebagai elemen ke <math>(i,\,j)</math> dari matriks, dan umumnya ditulis sebagai <math>a_{i,\,j}</math> atau <math>a_{ij}</math>. Alternatif notasi yang lain adalah <math>A[i,j]</math> atau <math>A_{i,j}</math>. Sebagai contoh, elemen ke <math>(1, 3)</math> dari matriks '''<math>\mathbf{A}</math>''' berikut dapat ditulis sebagai <math>a_{1,\,3
}</math>, <math>a_{13}</math>, <math>A[1,\, 3]</math> maupun <math>A_{1,\, 3}</math>.
 
Baris 88 ⟶ 84:
\end{bmatrix}</math>.
 
Dalam kasus seperti ini, matriks tersebut juga dapat didefinisikan oleh rumus yang sama, dengan menggunakan kurung siku atau kurungtanda kurawalkurung ganda. Pada contoh di atas, matriks dapat didefinisikan sebagai <math>\mathbf{A} = [i-j]</math> atau <math>\mathbf{A} = ((i-j))</math>.
 
Simbol bintang (asterisk) terkadang digunakan untuk merujuk sebuah baris atau sebuah kolom pada matriks. Sebagai contoh, <math>a_{i,\star}</math>merujuk pada baris ke-<math>i</math> dari matriks '''<math>\mathbf{A}</math>''', dan <math>a_{\star,j}</math> merujuk pada baris ke-<math>j</math> dari matriks <span id="linear_maps">'''<math>\mathbf{A}</math>'''</span>. Himpunan semua matriks <math>m \times n</math> dilambangkan dengan <math>\mathbb{M}_{m\times n}</math>.
 
== Macam-macam matriks ==
# [[Matriks persegi]]: apabila ukuran baris dan kolom sama atau <math>m = n
</math>
# [[Matriks diagonal]]: merupakan matriks persegi yang <math>a_{ij}=0</math>, untuk <math>i \neq j</math>
# Matriks Skalar: merupakan matriks diagonal yang memiliki unsur [[Diagonal utama|diagonal utamanya]] sama, misalnya <math>k</math>
# Matriks identitas: merupakan matriks skalar di mana <math>k=1</math>
# [[Matriks simetris]]: merupakan matriks persegi dengan <math>a_{ij}=a_{ji}</math> untuk <math>\forall_{i,j}</math>.
# Matriks anti simetris: merupakan matriks persegi yang transposenya adalah negatif dari matriks tersebut dengan <math>a_{ij}= -a_{ji}</math>
# [[Matriks segitiga|Matriks segitiga atas]]: merupakan matriks persegi yang semua unsurnya dibawah diagonal utamanya adalah 0, yakni <math>a_{ij}= 0</math> ketika <math>i>j</math>
# [[Matriks segitiga|Matriks segitiga bawah]]: merupakan matriks persegi yang semua unsurnya di atas diagonal utamanya adalah 0, yakni <math>a_{ij}= 0</math> ketika <math>i<j</math>
 
== Operasi dasar ==
Ada sejumlah operasi dasar yang dapat diterapkan untuk memodifikasi matriks. Operasi dasar pada matriks meliputi penambahan matriks, [[perkalian skalar]], transposisi, perkalian matriks, operasi baris, dan submatriks.
 
=== Penjumlahan dan pengurangan matriks ===
Baris 113 ⟶ 98:
atau dalam representasi dekoratifnya
:<math>
\begin{align}
\begin{bmatrix}
a_{311} & a_{412} & a_{13} \\
a_{621} & a_{522} & a_{23} \\
 
\end{bmatrix}
\pm
\!</math>
\begin{bmatrix}
 
b_{11} & b_{12} & b_{13} \\
:<math>
b_{21} & b_{22} & b_{23} \\
\end{bmatrix}
&=
\begin{bmatrix}
(a_{11} \pm b_{11}) & (a_{12} \pm b_{12}) & (a_{13} \pm b_{13}) \\
(a_{21} \pm b_{21}) & (a_{22} \pm b_{22}) & (a_{23} \pm b_{23}) \\
\end{bmatrix} \\
&=
\begin{bmatrix}
c_{11} & c_{12} & c_{13} \\
c_{21} & c_{22} & c_{23} \\
\end{bmatrix}
\end{align}
\!</math>
 
Baris 185 ⟶ 174:
\end{pmatrix}
</math>
 
== Sifat-sifat matriks ==
Sifat-sifat matriks sebagai berikut:
:: 1.<math>A + B = B + A</math>
:: 2.<math>(A + B) + C = A + (B + C)</math>
:: 3.<math>k(AB) = (kA)B</math>
:: 4.<math>(AB)C = A(BC)</math>
:: 5.<math>A(B + C) = AB + AC</math>
:: 6.<math>(A + B)C = AC + BC</math>
:: 7.<math>A B \neq B A</math>
 
Untuk pembuktian sifat yang pertama, yaitu sifat komutatif pada pertambahan matriks, dapat dibuktikan dengan cara yang sederhana, kita asumsikan matriks <math>A</math> dan <math>B</math> secara berturut-turut sebagai
 
<math>A = \begin{bmatrix}a_{11}&&a_{12}&&\dotsc&&a_{1n}\\
a_{21}&&\ddots&&\cdots&&\vdots\\
\vdots&&\cdots&&\ddots&&\vdots\\
a_{n1}&&\dotsc&&\dotsc&&a_{nn} \end{bmatrix}</math> dan <math>B = \begin{bmatrix}b_{11}&&b_{12}&&\dotsc&&b_{1n}\\
b_{21}&&\ddots&&\cdots&&\vdots\\
\vdots&&\cdots&&\ddots&&\vdots\\
b_{n1}&&\dotsc&&\dotsc&&b_{nn} \end{bmatrix}</math>
 
Hasil pertambahan dua matriks tersebut yaitu <math display="block">A+B = \begin{bmatrix}a_{11} + b_{11}&&a_{12}+b_{12}&&\dotsc&&a_{1n} + b_{1n}\\
a_{21}+b_{21}&&\ddots&&\cdots&&\vdots\\
\vdots&&\cdots&&\ddots&&\vdots\\
a_{n1}+b_{n1}&&\dotsc&&\dotsc&&a_{nn}+b_{nn} \end{bmatrix}</math>
 
Perhatikan bahwa, elemen-elemen pada hasil operasi pertamahan matriks tersebut tidak lain merupakan penjumlahan pada suatu bilangan dan berlaku sifat komutatif, <math>a_{11}+b_{11} = b_{11} + a_{11}</math>, dengan demikian dapat dituliskan sebagai
 
<math>\left[\begin{matrix}b_{11} + a_{11}&&b_{12}+a_{12}&&\dotsc&&b_{1n} + a_{1n}\\
b_{21}+a_{21}&&\ddots&&\cdots&&\vdots\\
\vdots&&\cdots&&\ddots&&\vdots\\
b_{n1}+a_{n1}&&\dotsc&&\dotsc&&b_{nn}+a_{nn} \end{matrix}\right]</math>
 
Bentuk di atas tidak lain adalah bentuk dari pertambahan <math>B+A</math>. Dengan cara yang sama, yaitu dengan memperhatikan setiap elemen pada hasil operasi matriks, dapat dibuktikan juga untuk sifat-sifat yang lain.<ref>{{cite web|url=https://iseng-project.id/materi-matematika/sma/matriks/|title=Matriks}}</ref>
 
== Persamaan linear ==<!-- [[Pemisahan matriks]] ada di sini. Tolong jangan berubah. -->
{{Main|Persamaan linear|Sistem persamaan linear}}
Matriks dapat digunakan untuk menulismenuliskan dan bekerjamengerjakan beberapa persamaan linear sekaligus secara kompaklebih denganringkas. Persamaan-persamaan linearini berganda,disebut yaitusebagai sistem persamaan linear. MisalnyaSebagai contoh, bilamisalkan '''<math>\mathbf{A}</math>''' adalah matriks berukuran <math>m \times n</math>, '''<math>\textbf{x}</math>''' menunjukkanadalah suatu vektor kolom (yaitu, matriks <math>n \times 1</math>) dari '' <math>n</math> '' variabel <math>x_1, x_2, \dots, x_n</math>, dan ''' <math>\textbf{b}</math> ''' adalah vektor <math>m \times 1
</math>, maka persamaan matriksnya ialahmatriks
:<math>\mathbf{Ax} = \mathbf{b}</math>
 
<math display="block">\mathbf{Ax} = \mathbf{b}</math>
setara dengan sistem persamaan linear<ref>{{Harvard citations |last1=Brown |year=1991 |nb=yes |loc=I.2.21 and 22}}</ref>
 
:<math>\begin{align}
setara dengan sistem persamaan linear<ref>{{Harvard citations |last1=Brown |year=1991 |nb=yes |loc=I.2.21 and 22}}</ref> <math display="block">\begin{align}
a_{1,1}x_1 + a_{1,2}x_2 + &\cdots + a_{1,n}x_n = b_1 \\
&\ \ \vdots \\
a_{m,1}x_1 + a_{m,2}x_2 + &\cdots + a_{m,n}x_n = b_m.
\end{align}</math>
 
Dengan menggunakan matriks, halsistem ini dapat diselesaikan secara lebih kompakringkas daripada yang mungkin dilakukan dengan menuliskan semua persamaan secara terpisah. JikaPada kasus ketika ''n'' = ''m'' dan semua persamaan bersifat independen (tidak dapat dinyatakan menggunakan persamaan-persamaan yang lain), solusi dari sistem persamaan dapat dituliskan sebagai<math display="block">\mathbf{x} = \mathbf{A}^{-1} \mathbf{b},</math>dengan '''<math>\mathbf{A}^{-1}</math>''' merupakan [[persamaanmatriks independen|independeninvers]] dari '''<math>\mathbf{A}</math>'''. Namun jika '''<math>\mathbf{A}</math>''' tidak memiliki invers, makasolusi inidari sistem persamaan — jika ada — dapat dilakukanditemukan dengansaat menulismenggunakan [[invers umum]].
:<math>\mathbf{x} = \mathbf{A}^{-1} \mathbf{b}</math>
 
dimana '''<math>\mathbf{A}^{-1}</math>''' adalah [[matriks invers]] dari '''<math>\mathbf{A}</math>'''. Bila '''<math>\mathbf{A}</math>''' tidak memiliki invers, solusi — jika ada — dapat ditemukan saat menggunakan [[ivers umum|invers umum]].
 
== Transformasi linear ==
{{Main|Transformasi linear|Matriks transformasi}}
[[Berkas:Area parallellogram as determinant.svg|thumb|right|Vektor-vektor yang(berupa diwakilititik olehsudut pada gambar ini) hasil perkalian dengan matriks 2-kali-<span id="linear_maps">×</span>2, sesuaianalog dengan sisifungsi persegi satuantransformasi yang diubahmengubah persegi satuan menjadi jajaran genjang.]]
Matriks dan operasi perkaliannya memiliki sifat penting dalam transformasi linear, yang juga dikenal sebagai ''peta linear''. <span id="linear_maps">Matriks (real) '''<math>\mathbf{A}</math>''' berukuran</span> <math>
Matrices and matrix multiplication mengungkapkan fitur penting mereka saat terkait dengan ''transformasi linear'', juga dikenal sebagai ''peta linear''. <span id="linear_maps">A real ''m''-by-''n'' matriks '''<math>\mathbf{A}</math>''' menimbulkan transformasi linear</span> <math>\mathbb{R}^n \rightarrow \mathbb{R}^m</math> <span id="linear_maps">memetakan setiap vektor '''<math>\textbf{x}</math>''' pada <math>\mathbb{R}^n</math> ke (matriks) produk '''<math>\textbf{Ax}</math>''', yang merupakan vektor dalam <math>\mathbb{R}^n</math>. Sebaliknya, setiap transformasi linear <math>f: \mathbb{R}^n \rightarrow \mathbb{R}^m</math> muncul dari unik ''m''-by-''n'' matriks '''<math>\mathbf{A}</math>''': secara eksplisit, {{nowrap|(''i'', ''j'')-entry}} dari '''<math>\mathbf{A}</math>''' is the ''i''{{sup|th}} coordinate of '''<math>f(\textbf{e}_j)</math>''', dengan</span> <math>\textbf{e}_j = (0, \dots, 0, 1, 0, \dots, 0)</math> <span id="linear_maps">adalah [[vektor satuan]] dengan 1 pada ''j''{{sup|th}} posisi dan 0 di tempat lain.</span> The matrix <span id="linear_maps">'''<math>\mathbf{A}</math>'''</span> dikatakan mewakili peta linear '' <span id="linear_maps">'''<math>f</math>'''</span> '', dan '' 'A' '' disebut '' matriks transformasi '' dari <span id="linear_maps">'''''<math>f</math>'''''</span>.
m \times n</math> <span id="linear_maps">dapat dianggap sebagai suatu transformasi linear</span> dari ruang dimensi-''n'' ke ruang dimensi-''m'', dengan bahasa lain, <math>\mathbb{R}^n \rightarrow \mathbb{R}^m</math>. Transformasi ini <span id="linear_maps">memetakan setiap vektor '''<math>\textbf{x}</math>''' dalam <math>\mathbb{R}^n</math> ke sebuah vektor '''<math>\textbf{Ax}</math>''' yang terletak dalam <math>\mathbb{R}^m</math>. Sebaliknya setiap transformasi linear <math>f: \mathbb{R}^n \rightarrow \mathbb{R}^m</math>dapat dianggap sebagai efek perkalian dengan suatu matriks '''<math>\mathbf{A}</math>''' berukuran ''m×n''. Secara eksplisit, entri ke-</span><math>(i,\,j)</math> dari matriks <span id="linear_maps">'''<math>\mathbf{A}</math>'''</span> adalah koordinat ke-''i'' dari hasil pemetaan <span id="linear_maps">'''<math>f(\textbf{e}_j)</math>'''</span>; vektor <math>\textbf{e}_j = (0, \dots, 0, 1, 0, \dots, 0)</math> adalah <span id="linear_maps">[[vektor satuan]] dengan nilai 1 pada koordinat ke-''j'' dan bernilai 0 di koordinat-koordinat yang lain. Dari hubungan ini, matriks '''<math>\mathbf{A}</math>'''</span> adalah representasi (wakil) dari transformasi linear ''<span id="linear_maps">'''<math>f</math>'''</span>'', dan disebut sebagai ''matriks transformasi'' dari <span id="linear_maps">'''''<math>f</math>'''''</span>.
 
Misalnya matriks 2x2
:<math>\mathbf{A} = \begin{bmatrix} a & c\\b & d \end{bmatrix}</math>
 
Sebagai contoh, matriks persegi berukuran 2<span id="linear_maps">×2</span><math display="block">\mathbf{A} = \begin{bmatrix} a & c\\b & d \end{bmatrix}</math>dapat dilihat sebagai transformasifungsi dariyang [[satuanmengubah persegi]] satuan menjadi suatu [[jajaran genjang]] dengan simpultitik-titik padasudut {{nowrap|terletak di <math>(0, \,0)}}</math>, {{nowrap|<math>(''a'', ''\,b'')}}</math>, {{nowrap|<math>(''a'' + ''c'', ''\,b'' + ''d'')}}</math>, dan {{nowrap|<math>(''c'', ''\,d'')}}</math>. Jajar genjang yang digambarkan di sebelah kanan diperoleh denganmasing-masing dari mengalikan '''<span id="linear_maps">''<math>\mathbf{A}</math>''</span>' '' dengan masing-masing vektor kolom <math>\begin{bmatrix} 0 \\ 0 \end{bmatrix}, \begin{bmatrix} 1 \\ 0 \end{bmatrix}, \begin{bmatrix} 1 \\ 1 \end{bmatrix}</math>, dan <math>\begin{bmatrix}0 \\ 1\end{bmatrix}</math>, secara gantinyaberurutan. Vektor-vektor ini menentukanadalah lokasi titik-titik simpulsudut dari persegi satuan.
 
Tabel berikut menunjukkan sejumlahbeberapa [[2jenis ×transformasi 2linear matriks nyata|matriks 2-kali-2]] dengan peta linier terkaitdi <span id="linear_maps"><math>\mathbb{R}^2</math></span> dan matriks 2<span id="linear_maps">×</span>2 dan mewakilinya . DokumenSetiap transformasi memetakan daerah asli yang berwarna biru dipetakanmenjadi kedaerah kisi dan bentukberwarna hijau. AsalTitik asal <math>(0,\,0)</math> ditandai dengan titik berwarna hitam.
{| class="wikitable" style="text-align:center; margin:1em auto 1em auto;"
|-
| [[Pemetaan geser|geserPenggeseran horizontal]] withdengan ''m'' = 1.,25.
| [[Refleksi (matematika)|Refleksi]] melaluiterhadap sumbu vertikal
| [[PemetaanPemerasan pemerasan]](''squeezing'') dengan r = 3/2
| [[Penskalaan (geometri)|Penskalaan]] dengan faktor 3/2
|<span id="rotation_matrix">[[Matriks rotasi|Rotasi]] sebesar π/6 = 30°</span>
|-
| <math>\begin{bmatrix}
1 & 1.,25 \\
0 & 1
\end{bmatrix}</math>
Baris 251 ⟶ 268:
|}
 
Di bawahKarena [[bijection Bijeksi|korespodensi korespondensi 1satu-ke-1satu]] antara matriks dan petatransformasi linierlinear, operasi perkalian matriks sesuaiberhubungan dengan operasi [[komposisi fungsi|komposisi]] ​​petafungsi:<ref>{{Harvard citations |last1=Greub |year=1975 |nb=yes |loc=Section III.2}}</ref> jika suatu matriks a<span id="linear_maps">''k'<math>\mathbf{B}</math>' - ''m''</span> ''berukuran 'B'k<span id="linear_maps">×</span>m'' mewakili petasuatu transformasi linear lainnya <span id="linear_maps"><math>g: \mathbb{R}^m \rightarrow \mathbb{R}^k</math></span>, maka komposisi fungsi <span id="linear_maps"><math>g \circ f</math></span> dapat diwakili oleh perkalian matriks <span id="linear_maps">'''<math>\mathbf{BA}</math>'''</span> karena <span id="linear_maps"><math display="block">(g \circ f)(\mathbf{x}) = g(f(\mathbf{x})) = g(\mathbf{Ax}) = \mathbf{B}(\mathbf{Ax}) = (\mathbf{BA})x.</math></span>Persamaan yang terakhir adalah hasil dari sifat asosiatif perkalian matriks.
:<span id="linear_maps"><math>(g \circ f)(\mathbf{x}) = g(f(\mathbf{x})) = g(\mathbf{Ax}) = \mathbf{B}(\mathbf{Ax}) = (\mathbf{BA})x</math></span>.
 
[[Rank (aljabar linear)|Rank]] dari matriks <span id="linear_maps">'''<math>\mathbf{A}</math>'''</span> adalah banyak maksimum dari vektor-vektor baris matriks yang saling [[bebas linear]], dan nilainya sama dengan banyak maksimum vektor-vektor kolom yang saling bebas linear.<ref>{{Harvard citations |last1=Brown |year=1991 |nb=yes |loc=Definition II.3.3}}</ref> Nilai peringkat ini adalah [[dimensi]] dari [[Citra (matematika)|citra]] transformasi linear yang diwakili oleh <span id="linear_maps">'''<math>\mathbf{A}</math>'''</span>.<ref>{{Harvard citations |last1=Greub |year=1975 |nb=yes |loc=Section III.1}}</ref> [[Teorema rank–nolitas]] menyatakan bahwa dimensi [[kernel (matriks)|kernel]] dari sebuah matriks jika ditambah dengan rank dari matriks tersebut, akan sama dengan banyak kolom dari matriks tersebut.<ref>{{Harvard citations |last1=Brown |year=1991 |nb=yes |loc=Theorem II.3.22}}</ref>
Persamaan terakhir mengikuti dari asosiativitas perkalian matriks yang disebutkan di atas.
 
[[Peringkat matriks]] <span id="linear_maps">'''<math>\mathbf{A}</math>'''</span> adalah jumlah maksimum vektor baris [[bebas linear|bebas linear]] dari matriks, yang sama dengan jumlah maksimum kolom bebas linier.<ref>{{Harvard citations |last1=Brown |year=1991 |nb=yes |loc=Definition II.3.3}}</ref> Persamaan dengan itu adalah [[dimensi Hamel|dimensi]] dari [[gambar (matematika)|gambar]] dari peta linear yang diwakili oleh <span id="linear_maps">'''<math>\mathbf{A}</math>'''</span>.<ref>{{Harvard citations |last1=Greub |year=1975 |nb=yes |loc=Section III.1}}</ref> [[Teorema pangkat–nulitas]] menyatakan bahwa dimensi [[kernel (matriks)|kernel]] dari sebuah matriks ditambah pangkat sama dengan jumlah kolom dari matriks tersebut.<ref>{{Harvard citations |last1=Brown |year=1991 |nb=yes |loc=Theorem II.3.22}}</ref>
 
== Matriks persegi ==
{{Main|Matriks persegi}}
[[Matriks persegi]] adalah matriks denganyang memiliki jumlah baris dan jumlah kolom yang sama.<ref name=":4" /> Matriks ''n''-oleh-''n''berukuran dikenal sebagai matriks kuadrat berorde ''n.'' Dua matriks kuadrat berorde yang sama dapat ditambahkan dan dikalikan.<math>
n \times n</math> juga disebut sebagai matriks persegi berorde ''n.'' Dua matriks persegi dengan orde yang sama dapat ditambahkan maupun dikalikan. Entri-entri <math>a_{ii}</math> membentuk [[diagonal utama]] dari matriks persegi. Mereka terletak pada garis imajinerkhayal yang membentang dari sudut kiri atas ke sudut kanan bawah matriks.
 
=== Bentuk-bentuk umum ===
Terdapat banyak macam matriks persegi. Sebagian besar dari mereka didefinisikan dari nilai entri-entri pada matriks, sedangkan yang lain didefinisikan dari sifat yang mereka lakukan atau penuhi. Berikut adalah penjelasan beberapa macam matriks persegi.
 
==== Matriks diagonal dan matriks segitiga ====
=== Jenis utama ===
:{| class="wikitable" style="float:right; margin:0ex 0ex 2ex 2ex;"
|-
! Nama !! Contoh dengan ''n'' = 3
Baris 292 ⟶ 309:
</math>
|}
Jika semua entri matriks persegi <span id="linear_maps">'''<math>\mathbf{A}</math>'''</span> yang terletak di bawah diagonal utama bernilai nol, <span id="linear_maps">'''<math>\mathbf{A}</math>'''</span> disebut ''[[matriks segitiga]] atas''. Demikian pula jika nilai semua entri ''<span id="linear_maps">'''<math>\mathbf{A}</math>'''</span>'' yang terletak di atas diagonal utama sama dengan nol, <span id="linear_maps">'''<math>\mathbf{A}</math>'''</span> disebut ''matriks segitiga bawah''. Jika semua entri yang bukan diagonal utama adalah nol, <span id="linear_maps">'''<math>\mathbf{A}</math>'''</span> disebut [[matriks diagonal]].
 
==== Matriks diagonalidentitas dan segitigamatriks skalar ====
Jika semua entri <span id="linear_maps">'''<math>\mathbf{A}</math>'''</span> di bawah diagonal utama adalah nol, <span id="linear_maps">'''<math>\mathbf{A}</math>'''</span> disebut ''[[matriks segitiga]] atas''. Demikian pula jika semua entri ''<span id="linear_maps">'''<math>\mathbf{A}</math>'''</span>'' di atas diagonal utama adalah nol, <span id="linear_maps">'''<math>\mathbf{A}</math>'''</span> disebut ''matriks segitiga bawah''. Jika semua entri di luar diagonal utama adalah nol, <span id="linear_maps">'''<math>\mathbf{A}</math>'''</span> disebut [[matriks diagonal]].
<!--
==== Matriks identitas ====
{{Main|Matriks identitas}}
Matriks identitas <math>\mathbf{I}_n</math> berorde ''n'' adalah matriks berukuran <math>
The ''identity matrix'' '''I'''{{sub|''n''}} of size ''n'' is the ''n''-by-''n'' matrix in which all the elements on the [[main diagonal]] are equal to 1 and all other elements are equal to 0, for example,
n \times n</math> yang semua elemen diagonal utamanya bernilai 1 sedangkan elemen-elemen lain bernilai 0. Sebagai contoh,
:<math>
 
: <math>
\mathbf{I}_1 = \begin{bmatrix} 1 \end{bmatrix},
\ \mathbf{I}_2 = \begin{bmatrix}
Baris 305 ⟶ 322:
0 & 1
\end{bmatrix},
\ \cdotsldots ,
\ \mathbf{I}_n = \begin{bmatrix}
1 & 0 & \cdots & 0 \\
Baris 313 ⟶ 330:
\end{bmatrix}
</math>
It is a square matrix of order ''n'', and also a special kind of [[diagonal matrix]]. It is called an identity matrix because multiplication with it leaves a matrix unchanged:
:{{nowrap begin}}'''AI'''{{sub|''n''}} = '''I'''{{sub|''m''}}'''A''' = '''A'''{{nowrap end}} for any ''m''-by-''n'' matrix '''A'''.
 
Matriks ini dinamakan identitas karena tidak mengubah matriks lain ketika dikalikan:<math display="block">\mathbf{AI}_n = \mathbf{I}_m \mathbf{A} = \mathbf{A}</math>untuk sembarang matriks <span id="linear_maps"><math>\mathbf{A}</math> berukuran</span> <math>
A nonzero scalar multiple of an identity matrix is called a ''scalar'' matrix. If the matrix entries come from a field, the scalar matrices form a group, under matrix multiplication, that is isomorphic to the multiplicative group of nonzero elements of the field.
m \times n
</math><span id="linear_maps">. Matriks ini adalah bentuk khusus dari [[matriks diagonal]]. Matriks berupa kelipatan skalar dari matriks identitas disebut ''matriks skalar''. Jika entri-entri matriks identitas diambil dari suatu [[Medan (matematika)|medan]], matriks skalar akan membentuk suatu [[Grup (matematika)|grup]] terhadap perkalian matriks, dan isomorfik ke grup multiplikatif dari elemen-elemen tak nol dari medan tersebut.</span>
 
==== Matriks simetrik dan variasinya ====
====Symmetric or skew-symmetric matrix====
{{Main|Matriks simetrik}}
A square matrix '''A''' that is equal to its transpose, that is, {{nowrap begin}}'''A''' = '''A'''{{sup|T}}{{nowrap end}}, is a [[symmetric matrix]]. If instead, '''A''' is equal to the negative of its transpose, that is, {{nowrap begin}}'''A''' = −'''A'''{{sup|T}},{{nowrap end}} then '''A''' is a [[skew-symmetric matrix]]. In complex matrices, symmetry is often replaced by the concept of [[Hermitian matrix|Hermitian matrices]], which satisfy '''A'''{{sup|∗}} = '''A''', where the star or [[asterisk]] denotes the [[conjugate transpose]] of the matrix, that is, the transpose of the [[complex conjugate]] of '''A'''.
Matriks persegi <span id="linear_maps"><math>\mathbf{A}</math></span> yang sama dengan hasil [[transpos]]-nya, yakni matriks yang memenuhi <span id="linear_maps"><math>\mathbf{A}=\mathbf{A}^\mathsf{T}</math></span>, disebut sebagai [[matriks simetrik]]. Sedangkan matriks persegi yang sama dengan negatif dari hasil transposnya, yakni <span id="linear_maps"><math>\mathbf{A}=-\mathbf{A}^\mathsf{T}</math></span>, disebut ''matriks simetrik serong'' (''skew symetric matrix''). Pada matriks dengan entri-entri bilangan kompleks, konsep simetri sering digantikan dengan konsep [[matriks Hermite]]. Matriks ini adalah matriks yang memenuhi <span id="linear_maps"><math>\mathbf{A}=\mathbf{A}^*</math></span>, dengan [[Asterisk|asteris]] (tanda bintang) menyatakan [[transpos konjugat]] dari matriks. Berdasarkan [[teorema spektral]], matriks simetrik real dan matriks Hermite kompleks memiliki [[Nilai dan vektor eigen|basis eigen]]; artinya setiap vektor dapat dinyatakan sebagai [[kombinasi linear]] dari [[Nilai dan vektor eigen|vektor-vektor eigen]]. Pada kedua jenis matriks, semua nilai eigennya berupa bilangan real.<ref>{{Harvard citations|last1=Horn|last2=Johnson|year=1985|nb=yes|loc=Theorem 2.5.6}}</ref> Teorema tersebut dapat diperumum untuk situasi matriks yang memiliki tak hingga banyak kolom dan baris.
 
==== Matriks terbalikkan dan inversnya ====
By the [[spectral theorem]], real symmetric matrices and complex Hermitian matrices have an [[eigenbasis]]; that is, every vector is expressible as a [[linear combination]] of eigenvectors. In both cases, all eigenvalues are real.<ref>{{Harvard citations |last1=Horn |last2=Johnson |year=1985 |nb=yes |loc=Theorem 2.5.6}}</ref> This theorem can be generalized to infinite-dimensional situations related to matrices with infinitely many rows and columns, see [[#Infinite matrices|below]].
{{Main|Matriks terbalikkan}}
Matriks persegi <span id="linear_maps"><math>\mathbf{A}</math></span> disebut [[Matriks terbalikkan|''terbalikkan'']], ''nonsingular'', atau ''invertibel'', jika ada suatu matriks <span id="linear_maps"><math>\mathbf{B}</math></span> yang memenuhi persamaan
 
<math display="block">\mathbf{AB} = \mathbf{BA} = \mathbf{I}_n, </math>dengan <math>\mathbf{I}_n</math> merupakan [[matriks identitas]] yang berukuran sama dengan <span id="linear_maps"><math>\mathbf{A}</math></span>.<ref>{{Harvard citations|last1=Brown|year=1991|nb=yes|loc=Definition I.2.28}}</ref><ref>{{Harvard citations|last1=Brown|year=1991|nb=yes|loc=Definition I.5.13}}</ref> Jika matriks <span id="linear_maps"><math>\mathbf{B}</math></span> ada, matriks ini unik dan disebut sebagai ''matriks invers'' dari <span id="linear_maps"><math>\mathbf{A}</math></span> dan dinotasikan sebagai <span id="linear_maps"><math>\mathbf{A}^{-1}</math></span>.
====Invertible matrix and its inverse====
A square matrix '''A''' is called ''[[invertible matrix|invertible]]'' or ''non-singular'' if there exists a matrix '''B''' such that
:'''AB''' = '''BA''' = '''I'''{{sub|''n''}} ,<ref>{{Harvard citations |last1=Brown |year=1991 |nb=yes |loc=Definition I.2.28}}</ref><ref>{{Harvard citations |last1=Brown |year=1991 |nb=yes |loc=Definition I.5.13}}</ref>
where '''I'''{{sub|''n''}} is the ''n''×''n'' [[identity matrix]] with 1s on the [[main diagonal]] and 0s elsewhere. If '''B''' exists, it is unique and is called the ''[[Invertible matrix|inverse matrix]]'' of '''A''', denoted '''A'''{{sup|−1}}.
 
== Penerapan ==
====Definite matrix====
[[Berkas:Markov chain.png|jmpl|Rantai Markov, dua kemungkinan keadaan. Bagan menunjukkan dua rantai berbeda (keduanya memiliki matriks transisi berbeda).]]
{| class="wikitable" style="float:right; text-align:center; margin:0ex 0ex 2ex 2ex;"
Terdapat banyak contoh penerapan dari matriks, baik dalam matematika maupun pada bidang-bidang ilmu lainnya. Sebagian dari mereka hanya menggunakannya untuk mendapatkan bentuk susunan bilangan-bilangan yang lebih ringkas. Sebagai contoh, dalam [[teori permainan]] dan [[ekonomi]], [[matriks imbalan]] merangkum semua imbalan yang dapat diperoleh dua pemain, tergantung pada himpunan (hingga) pilihan alternatif yang dapat dipilih masing-masing pemain.<ref>{{Harvard citations|last1=Fudenberg|last2=Tirole|year=1983|nb=yes|loc=Section 1.1.1}}</ref> Proses [[penambangan teks]] dan proses mengompilasi [[tesaurus]] menggunakan matriks khusus seperti [[Tf–idf|TF-IDF]] untuk mencatat frekuensi kemunculan kata-kata tertentu pada beberapa dokumen.<ref>{{Harvard citations|last1=Manning|year=1999|loc=Section 15.3.4|nb=yes}}</ref>
|-
! [[Positive definite matrix]] !! [[Indefinite matrix]]
|-
| <math>\begin{bmatrix}
\frac{1}{4} & 0 \\
0 & 1 \\
\end{bmatrix}</math>
| <math>\begin{bmatrix}
\frac{1}{4} & 0 \\
0 & -\frac{1}{4}
\end{bmatrix}</math>
|-
| ''Q''(''x'', ''y'') = 1/4 ''x''{{sup|2}} + ''y''{{sup|2}}
| ''Q''(''x'', ''y'') = 1/4 ''x''{{sup|2}} − 1/4 ''y''{{sup|2}}
|-
| [[File:Ellipse in coordinate system with semi-axes labelled.svg|150px]] <br>Points such that ''Q''(''x'',''y'')=1 <br> ([[Ellipse]]).
| [[File:Hyperbola2 SVG.svg|150px]] <br> Points such that ''Q''(''x'',''y'')=1 <br> ([[Hyperbola]]).
|}
A symmetric ''n''×''n''-matrix '''A''' is called [[positive-definite matrix|''positive-definite'']] if the associated [[quadratic form]]
:<span id="quadratic forms">''f''{{spaces|hair}}('''x''') = '''x'''{{sup|T}}'''A{{nbsp}}x'''</span>
 
Matriks juga dapat digunakan untuk merepresentasikan bilangan kompleks, yakni lewat hubungan
has a positive value for every nonzero vector '''x''' in '''R'''{{sup|''n''}}. If ''f''{{spaces|hair}}('''x''') only yields negative values then '''A''' is [[definiteness of a matrix#Negative definite|''negative-definite'']]; if ''f'' does produce both negative and positive values then '''A''' is [[definiteness of a matrix#Indefinite|''indefinite'']].<ref>{{Harvard citations |last1=Horn |last2=Johnson |year=1985 |nb=yes |loc=Chapter 7}}</ref> If the quadratic form ''f'' yields only non-negative values (positive or zero), the symmetric matrix is called ''positive-semidefinite'' (or if only non-positive values, then negative-semidefinite); hence the matrix is indefinite precisely when it is neither positive-semidefinite nor negative-semidefinite.
 
<math display="block">a + ib \leftrightarrow \begin{bmatrix}
A symmetric matrix is positive-definite if and only if all its eigenvalues are positive, that is, the matrix is positive-semidefinite and it is invertible.<ref>{{Harvard citations |last1=Horn |last2=Johnson |year=1985 |nb=yes |loc=Theorem 7.2.1}}</ref> The table at the right shows two possibilities for 2-by-2 matrices.
a & -b \\
b & a \end{bmatrix},</math>
 
dengan a dan b keduanya berupa [[bilangan real]] non-negatif. Hubungan ini memberikan cara pandang untuk melihat operasi perkalian dan penjumlahan pada matriks maupun pada bilangan kompleks. Sebagai contoh, perkalian dengan suatu matriks rotasi 2×2 merepresentasikan suatu perkalian dengan bilangan kompleks dengan [[Nilai absolut|modulus]] 1. Hubungan yang mirip juga didapatkan untuk [[Kuaternion|kuartenion]]<ref>{{Harvard citations|last1=Ward|year=1997|loc=Ch. 2.8|nb=yes}}</ref>.
Allowing as input two different vectors instead yields the [[bilinear form]] associated to '''A''':
:''B''{{sub|'''A'''}} ('''x''', '''y''') = '''x'''{{sup|T}}'''Ay'''.<ref>{{Harvard citations |last1=Horn |last2=Johnson |year=1985 |nb=yes |loc=Example 4.0.6, p. 169}}</ref>
 
Teknik-teknik [[enkripsi]] masa awal seperti [[sandi Hill]] juga menggunakan matriks. Malangnya, karena sifat kelinearan matriks, kode yang dihasilkan mudah diretas.<ref>{{Harvard citations|last1=Stinson|year=2005|loc=Ch. 1.1.5 and 1.2.4|nb=yes}}</ref> [[Grafika komputer]] menggunakan matriks untuk merepresentasikan dan mentransformasi objek-objek, contohnya ketika memproyeksikan benda 3D ke layar 2D.<ref>{{Harvard citations|last1=Association for Computing Machinery|year=1979|loc=Ch. 7|nb=yes}}</ref> Ilmu [[kimia]] menggunakan matriks dalam banyak cara, khususnya sejak [[teori kuantum]] digunakan untuk menjelaskan [[ikatan kimia]] dan [[spektroskopi]]. Beberapa contoh matriks yang dipakai adalah matriks ''overlap'' dan [[matriks Fock]] yang digunakan dalam [[persamaan Roothaan]] untuk mendapatkan [[orbital molekul]] dari [[Metode Hartree–Fock|metode Hartree-Fock]].
====Orthogonal matrix====
{{Main|Orthogonal matrix}}
An ''orthogonal matrix'' is a [[#Square matrices|square matrix]] with [[real number|real]] entries whose columns and rows are [[orthogonal]] [[unit vector]]s (that is, [[orthonormality|orthonormal]] vectors). Equivalently, a matrix '''A''' is orthogonal if its [[transpose]] is equal to its [[invertible matrix|inverse]]:
:<math>\mathbf{A}^\mathrm{T}=\mathbf{A}^{-1}, \,</math>
which entails
:<math>\mathbf{A}^\mathrm{T} \mathbf{A} = \mathbf{A} \mathbf{A}^\mathrm{T} = \mathbf{I}_n,</math>
where '''I'''{{sub|''n''}} is the [[identity matrix]] of size ''n''.
 
An orthogonal matrix '''A''' is necessarily [[invertible matrix|invertible]] (with inverse {{nowrap|1='''A'''{{sup|&minus;1}} = '''A'''{{sup|T}}}}), [[unitary matrix|unitary]] ({{nowrap|1='''A'''{{sup|&minus;1}} = '''A'''*}}), and [[normal matrix|normal]] ({{nowrap|1='''A'''*'''A''' = '''AA'''*}}). The [[determinant]] of any orthogonal matrix is either {{math|+1}} or {{math|−1}}. A ''special orthogonal matrix'' is an orthogonal matrix with [[determinant]] +1. As a [[linear transformation]], every orthogonal matrix with determinant {{math|+1}} is a pure [[rotation (mathematics)|rotation]] without reflection, i.e., the transformation preserves the orientation of the transformed structure, while every orthogonal matrix with determinant {{math|-1}} reverses the orientation, i.e., is a composition of a pure [[reflection (mathematics)|reflection]] and a (possibly null) rotation. The identity matrices have determinant {{math|1}}, and are pure rotations by an angle zero.
 
The [[complex number|complex]] analogue of an orthogonal matrix is a [[unitary matrix]].
 
===Main operations===
 
====Trace====
The [[trace of a matrix|trace]], tr('''A''') of a square matrix '''A''' is the sum of its diagonal entries. While matrix multiplication is not commutative as mentioned [[#non commutative|above]], the trace of the product of two matrices is independent of the order of the factors:
: tr('''AB''') = tr('''BA''').
This is immediate from the definition of matrix multiplication:
:<math>\operatorname{tr}(\mathbf{AB}) = \sum_{i=1}^m \sum_{j=1}^n a_{ij} b_{ji} = \operatorname{tr}(\mathbf{BA}).</math>
It follows that the trace of the product of more than two matrices is independent of [[cyclic permutation]]s of the matrices, however this does not in general apply for arbitrary permutations (for example, tr('''ABC''') ≠ tr('''BAC'''), in general). Also, the trace of a matrix is equal to that of its transpose, that is,
:{{nowrap begin}}tr('''A''') = tr('''A'''{{sup|T}}){{nowrap end}}.
 
====Determinant====
{{Main|Determinant}}
[[File:Determinant example.svg|thumb|300px|right|A linear transformation on '''R'''{{sup|2}} given by the indicated matrix. The determinant of this matrix is −1, as the area of the green parallelogram at the right is 1, but the map reverses the [[orientation (mathematics)|orientation]], since it turns the counterclockwise orientation of the vectors to a clockwise one.]]
 
The ''determinant'' of a square matrix '''A''' (denoted det('''A''') or |'''A'''|<ref name=":2" />) is a number encoding certain properties of the matrix. A matrix is invertible [[if and only if]] its determinant is nonzero. Its [[absolute value]] equals the area (in '''R'''{{sup|2}}) or volume (in '''R'''{{sup|3}}) of the image of the unit square (or cube), while its sign corresponds to the orientation of the corresponding linear map: the determinant is positive if and only if the orientation is preserved.
 
The determinant of 2-by-2 matrices is given by
:<math>\det \begin{bmatrix}a&b\\c&d\end{bmatrix} = ad-bc.</math><ref name=":3" />
The determinant of 3-by-3 matrices involves 6 terms ([[rule of Sarrus]]). The more lengthy [[Leibniz formula for determinants|Leibniz formula]] generalises these two formulae to all dimensions.<ref>{{Harvard citations |last1=Brown |year=1991 |nb=yes |loc=Definition III.2.1}}</ref>
 
The determinant of a product of square matrices equals the product of their determinants:
:{{nowrap begin}}det('''AB''') = det('''A''') · det('''B''').<ref>{{Harvard citations |last1=Brown |year=1991 |nb=yes |loc=Theorem III.2.12}}</ref>{{nowrap end}}
Adding a multiple of any row to another row, or a multiple of any column to another column, does not change the determinant. Interchanging two rows or two columns affects the determinant by multiplying it by −1.<ref>{{Harvard citations |last1=Brown |year=1991 |nb=yes |loc=Corollary III.2.16}}</ref> Using these operations, any matrix can be transformed to a lower (or upper) triangular matrix, and for such matrices the determinant equals the product of the entries on the main diagonal; this provides a method to calculate the determinant of any matrix. Finally, the [[Laplace expansion]] expresses the determinant in terms of [[minor (linear algebra)|minors]], that is, determinants of smaller matrices.<ref>{{Harvard citations |last1=Mirsky |year=1990 |nb=yes |loc=Theorem 1.4.1}}</ref> This expansion can be used for a recursive definition of determinants (taking as starting case the determinant of a 1-by-1 matrix, which is its unique entry, or even the determinant of a 0-by-0 matrix, which is 1), that can be seen to be equivalent to the Leibniz formula. Determinants can be used to solve [[linear system]]s using [[Cramer's rule]], where the division of the determinants of two related square matrices equates to the value of each of the system's variables.<ref>{{Harvard citations |last1=Brown |year=1991 |nb=yes |loc=Theorem III.3.18}}</ref>
 
====Eigenvalues and eigenvectors====
{{Main|Eigenvalue, eigenvector and eigenspace|l1=Eigenvalues and eigenvectors}}
A number λ and a non-zero vector '''v''' satisfying
:'''Av''' = λ'''v'''
are called an ''eigenvalue'' and an ''eigenvector'' of '''A''', respectively.<ref>''Eigen'' means "own" in [[German language|German]] and in [[Dutch language|Dutch]].</ref><ref>{{Harvard citations |last1=Brown |year=1991 |nb=yes |loc=Definition III.4.1}}</ref> The number λ is an eigenvalue of an ''n''×''n''-matrix '''A''' if and only if '''A'''−λ'''I'''{{sub|''n''}} is not invertible, which is [[logical equivalence|equivalent]] to
:<math>\det(\mathsf{A}-\lambda \mathsf{I}) = 0.</math><ref>{{Harvard citations |last1=Brown |year=1991 |nb=yes |loc=Definition III.4.9}}</ref>
The polynomial ''p''{{sub|'''A'''}} in an [[indeterminate (variable)|indeterminate]] ''X'' given by evaluation of the determinant det(''X'''''I'''{{sub|''n''}}−'''A''') is called the [[characteristic polynomial]] of '''A'''. It is a [[monic polynomial]] of [[degree of a polynomial|degree]] ''n''. Therefore the polynomial equation ''p''{{sub|'''A'''}}(λ){{nbsp}}={{nbsp}}0 has at most ''n'' different solutions, that is, eigenvalues of the matrix.<ref>{{Harvard citations |last1=Brown |year=1991 |nb=yes |loc=Corollary III.4.10}}</ref> They may be complex even if the entries of '''A''' are real. According to the [[Cayley–Hamilton theorem]], {{nowrap begin}}''p''{{sub|'''A'''}}('''A''') = '''0'''{{nowrap end}}, that is, the result of substituting the matrix itself into its own characteristic polynomial yields the [[zero matrix]].-->
 
== Lihat pula ==
Baris 407 ⟶ 364:
== Referensi ==
{{reflist}}
 
== Bacaan lebih lanjut ==
* {{cite book|last= Kurnianingsih|first= Sri|authorlink=|coauthors=Kuntarti, Sulistiyono|title=Matematika SMA dan MA 3A Untuk Kelas XII Semester 1 Program IPA|year= 2007|publisher= Esis/Erlangga|location= Jakarta|id= ISBN 979-734-504-1 }} {{id icon}}
* {{cite book|last= Kurnianingsih|first= Sri|authorlink=|coauthors=Kuntarti, Sulistiyono|title=Matematika SMA dan MA 3A Untuk Kelas XII Semester 1 Program IPS|year= 2007|publisher= Esis/Erlangga|location= Jakarta|id= ISBN 979-734-567-X }} {{id icon}}
 
== Pranala luar ==
Baris 416 ⟶ 377:
 
; Sejarah
* [http://www-groups.dcs.st-and.ac.uk/~history/HistTopics/Matrices_and_determinants.html MacTutor: Matrices and determinants] {{Webarchive|url=https://web.archive.org/web/20150308120526/http://www-groups.dcs.st-and.ac.uk/~history/HistTopics/Matrices_and_determinants.html |date=2015-03-08 }}
* [http://www.economics.soton.ac.uk/staff/aldrich/matrices.htm Matrices and Linear Algebra on the Earliest Uses Pages]
* [http://jeff560.tripod.com/matrices.html Earliest Uses of Symbols for Matrices and Vectors]