Gegeven zijn de lineaire deelruimten U,V∈RnU,V \in \R^n. In het algemeen geldt dat U∪VU \cup V geen lineaire deelruimte is. De verzameling U∩VU \cap V is wel altijd een lineaire deelruimte. De somruimte U+V={u+v:u∈U,v∈V}U+V = \{ u + v : u \in U, v \in V \} is ook altijd een lineaire deelruimte. Basis voor U∩VU \cap V We nemen als voorbeeld de lineaire deelruimten U,VU,V gegeven door: U=span([1214],[0101]),V=span([−1101],[42614],[2215]) U = \text{span}\left( \begin{bmatrix} 1 \\ 2 \\ 1 \\ 4 \end{bmatrix}, \begin{bmatrix} 0 \\ 1 \\ 0 \\ 1 \end{bmatrix} \right), \quad V = \text{span}\left( \begin{bmatrix} -1 \\ 1 \\ 0 \\ 1 \end{bmatrix}, \begin{bmatrix} 4 \\ 2 \\ 6 \\ 14 \end{bmatrix}, \begin{bmatrix} 2 \\ 2 \\ 1 \\ 5 \end{bmatrix} \right) Deze vectoren noemen we u1,u2,v1,v2,v3u_1, u_2, v_1, v_2, v_3. Er geldt: als x∈U∩Vx \in U \cap V, dan is xx te schrijven als x=λ1u1+λ2u2=μ1v1+μ2v2+μ3v3x = \lambda_1 u_1 + \lambda_2 u_2 = \mu_1 v_1 + \mu_2 v_2 + \mu_3 v_3, voor λi,μi∈R\lambda_i, \mu_i \in \R. Oftewel: λ1u1+λ2u2−μ1v1−μ2v2−μ3v3=0\lambda_1 u_1 + \lambda_2 u_2 - \mu_1 v_1 - \mu_2 v_2 - \mu_3 v_3 = 0. We zoeken dus lineaire relaties. Concreter: we zoeken vectoren [λ1λ2−μ1−μ2−μ3]∈Nul(A)\begin{bmatrix} \lambda_1 \\ \lambda_2 \\ -\mu_1 \\ -\mu_2 \\ -\mu_3 \end{bmatrix} \in \text{Nul}(A) voor een matrix A=[10−1422112210061411145]A = \begin{bmatrix} 1 & 0 & -1 & 4 & 2 \\ 2 & 1 & 1 & 2 & 2 \\ 1 & 0 & 0 & 6 & 1 \\ 4 & 1 & 1 & 14 & 5 \end{bmatrix}. Gauss-Jordan-eliminatie geeft [10060010−1200012000001]\begin{bmatrix} 1 & 0 & 0 & 6 & 0 \\ 0 & 1 & 0 & -12 & 0 \\ 0 & 0 & 1 & 2 & 0 \\ 0 & 0 & 0 & 0 & 1 \end{bmatrix}, dus Nul(A)={[−6t12t−2tt0]:t∈R}\text{Nul}(A) = \left\{ \begin{bmatrix} -6t \\ 12t \\ -2t \\ t \\ 0 \end{bmatrix} : t \in \R \right\}. We concluderen dat dim(U∩V)=1\text{dim}(U \cap V) = 1. Kies t=1t=1. Dan is {[−612−210]}\left\{ \begin{bmatrix} -6 \\ 12 \\ -2 \\ 1 \\ 0 \end{bmatrix} \right\} een basis voor Nul(A)\text{Nul}(A). Een basisvector voor U∩VU \cap V is dan: −6[1214]+12[0101]=2[−1101]−[42614]+0[2215]=[−60−6−12] -6 \begin{bmatrix} 1 \\ 2 \\ 1 \\ 4 \end{bmatrix} + 12 \begin{bmatrix} 0 \\ 1 \\ 0 \\ 1 \end{bmatrix} = 2 \begin{bmatrix} -1 \\ 1 \\ 0 \\ 1 \end{bmatrix} - \begin{bmatrix} 4 \\ 2 \\ 6 \\ 14 \end{bmatrix} + 0 \begin{bmatrix} 2 \\ 2 \\ 1 \\ 5 \end{bmatrix} = \begin{bmatrix} -6 \\ 0 \\ -6 \\ -12 \end{bmatrix}
Laat A∈Mm,nA \in M_{m,n}. Dan noemen we: dim(span(kolommen van A))\text{dim}(\text{span}(\text{kolommen van } A)) de kolommenrang van AA, dim(span(rijen van A))\text{dim}(\text{span}(\text{rijen van } A)) de rijenrang van AA, Nul(A)={x∈Rn:Ax=0}\text{Nul}(A) = \{ x \in \R^n : Ax=0 \} de nulruimte van AA. Er geldt dat span(kolommen van A)⊆Rm\text{span}(\text{kolommen van } A) \subseteq \R^m en span(rijen van A),Nul(A)⊆Rn\text{span}(\text{rijen van } A), \text{Nul}(A) \subseteq \R^n. Als voorbeeld nemen we de matrix: A=[12−1−4−1−227240−2] A = \begin{bmatrix} 1 & 2 & -1 & -4 \\ -1 & -2 & 2 & 7 \\ 2 & 4 & 0 & -2 \end{bmatrix} We willen weten hoeveel basisvectoren het volgende opspansel heeft: span([1−12],[2−24],[−120],[−47−2]) \text{span} \left( \begin{bmatrix} 1 \\ -1 \\ 2 \end{bmatrix}, \begin{bmatrix} 2 \\ -2 \\ 4 \end{bmatrix}, \begin{bmatrix} -1 \\ 2 \\ 0 \end{bmatrix}, \begin{bmatrix} -4 \\ 7 \\ -2 \end{bmatrix} \right) We passen Gauss-Jordan-eliminatie toe en vinden: [120−100130000] \begin{bmatrix} \colorbox{cyan}{1} & 2 & 0 & -1 \\ 0 & 0 & \colorbox{cyan}{1} & 3 \\ 0 & 0 & 0 & 0 \end{bmatrix} Er zijn twee pivot-elementen, dus de kolommenrang van de matrix is 22. Een basis is: {[1−12],[−120]} \left\{ \begin{bmatrix} 1 \\ -1 \\ 2 \end{bmatrix}, \begin{bmatrix} -1 \\ 2 \\ 0 \end{bmatrix} \right\} We willen weten hoeveel basisvectoren het volgende opspansel heeft: span([12−1−4],[−1−227],[240−2]) \text{span} \left( \begin{bmatrix} 1 \\ 2 \\ -1 \\ -4 \end{bmatrix}, \begin{bmatrix} -1 \\ -2 \\ 2 \\ 7 \end{bmatrix}, \begin{bmatrix} 2 \\ 4 \\ 0 \\ -2 \end{bmatrix} \right) Deze drie vectoren noemen we r1,r2,r3r_1, r_2, r_3. Dit opspansel is gelijk aan het volgende opspansel: span(r1,r2+r1,r3−2r1) \text{span}(r_1, r_2 + r_1, r_3 - 2r_1) En dit zijn precies de stappen die we bij Gauss-Jordan-eliminatie hebben gedaan. Als A′A' de matrix AA is na Gauss-Jordan-eliminatie, geldt: span(rijen van A)=span(rijen van A′) \text{span}(\text{rijen van } A) = \text{span}(\text{rijen van } A') Een basis voor span(rijen van A)\text{span}(\text{rijen van } A) is dus: {[120−1],[0013]} \left\{ \begin{bmatrix} 1 \\ 2 \\ 0 \\ -1 \end{bmatrix}, \begin{bmatrix} 0 \\ 0 \\ 1 \\ 3 \end{bmatrix} \right\} Dus de rijenrang van AA is 22. De rijenrang is altijd gelijk aan de kolommenrang. Dit getal noemen we de rang van de matrix. Voor de nulruimte krijgen we, na Gauss-Jordan-eliminatie, het volgende: Nul(A)={[−2s+ts−3tt]:s,t∈R}={s[−2100]+t[10−31]:s,t∈R} \text{Nul}(A) = \left\{ \begin{bmatrix} -2s + t \\ s \\ -3t \\ t \end{bmatrix} : s,t \in \R \right\} = \left\{ s \begin{bmatrix} -2 \\ 1 \\ 0 \\ 0 \end{bmatrix} + t \begin{bmatrix} 1 \\ 0 \\ -3 \\ 1 \end{bmatrix} : s,t \in \R \right\} Een basis van de nulruimte is dus: {[−2100],[10−31]} \left\{ \begin{bmatrix} -2 \\ 1 \\ 0 \\ 0 \end{bmatrix}, \begin{bmatrix} 1 \\ 0 \\ -3 \\ 1 \end{bmatrix} \right\} De dimensie van de nulruimte is 22, en dat is precies het aantal kolommen zonder pivot-element. Neem een matrix A∈Mm,nA \in M_{m,n}. Dan geldt: n=#kolommen=#kolommen met pivot-element+#kolommen zonder pivot-element=rang(A)+dim(Nul(A)) \begin{aligned} n &= \#\text{kolommen} \\ &= \#\text{kolommen met pivot-element} + \#\text{kolommen zonder pivot-element} \\ &= \text{rang}(A) + \text{dim}(\text{Nul}(A)) \end{aligned} Deze stelling heet de dimensiestelling.
Een lineaire combinatie ww van vectoren v1,v2,...,vrv_1, v_2, ..., v_r is een element van het opspansel van deze vectoren. Oftewel, ww is te schrijven als: w=λ1v1+λ2v2+...+λrvrmet λ1,λ2,...,λr∈R w = \lambda_1 v_1 + \lambda_2 v_2 + ... + \lambda_r v_r \quad \text{met } \lambda_1, \lambda_2, ..., \lambda_r \in \R We noemen een vector ww (lineair) afhankelijk van vectoren v1,v2,...,vrv_1, v_2, ..., v_r als ww een lineaire combinatie is van deze vectoren. We noemen een vector ww (lineair) onafhankelijk van deze vectoren als ww niet te schrijven is als een lineaire combinatie van deze vectoren. We zeggen dat een aantal vectoren v1,v2,...,vrv_1, v_2, ..., v_r (lineair) afhankelijk is als ten minste één van deze vectoren lineair afhankelijk is van de overige vectoren. We noemen een stel vectoren (lineair) onafhankelijk als het niet afhankelijk is. Een vergelijking van de vorm λ1v1+λ2v2+...+λrvr=0met λ1,λ2,...,λr∈R \lambda_1 v_1 + \lambda_2 v_2 + ... + \lambda_r v_r = 0 \quad \text{met } \lambda_1, \lambda_2, ..., \lambda_r \in \R noemen we een (lineaire) relatie tussen deze vectoren. De relatie heet triviaal als λi=0\lambda_i=0 voor elke 1≤i≤r1 \le i \le r. De relatie heet niet-triviaal als ten minste één λi≠0\lambda_i \neq 0. Stelling Als een stel vectoren v1,v2,...,vrv_1, v_2, ..., v_r lineair afhankelijk is, dan en precies dan geldt dat er een niet-triviale relatie tussen deze vectoren bestaat. Omgekeerd, als een stel vectoren v1,v2,...,vrv_1, v_2, ..., v_r lineair onafhankelijk is, dan en precies dan bestaat er geen niet-triviale relatie tussen deze vectoren. Stel we hebben vectoren [110] \begin{bmatrix} 1 \\ 1 \\ 0 \end{bmatrix} , [112]\begin{bmatrix} 1 \\ 1 \\ 2 \end{bmatrix} en [332] \begin{bmatrix} 3 \\ 3 \\ 2 \end{bmatrix} . We willen weten of deze vectoren lineair afhankelijk of onafhankelijk zijn, dus of er niet-triviale relaties bestaan. Dit betekent dat we zoeken naar oplossingen voor het stelsel: {λ1+λ2+3λ3=0λ1+λ2+3λ3=02λ2+2λ3=0 \begin{cases} \lambda_1 + \lambda_2 + 3\lambda_3 = 0 \\ \lambda_1 + \lambda_2 + 3\lambda_3 = 0 \\ 2\lambda_2 + 2\lambda_3 = 0 \end{cases} Als we dit in een coëfficiëntenmatrix zetten en Gauss-Jordan-eliminatie toepassen, krijgen we: [102011000] \begin{bmatrix} 1 & 0 & 2 \\ 0 & 1 & 1 \\ 0 & 0 & 0 \end{bmatrix} Omdat λ3\lambda_3 geen pivot-variabele is, kiezen we deze vrij, namelijk λ3=t\lambda_3 = t voor een t∈Rt\in\R. Dit geeft de oplossingsverzameling: {t[−2−11]:t∈R} \left\{ t \begin{bmatrix} -2 \\ -1 \\ 1 \end{bmatrix} : t \in \R \right\} Voor dit stelsel bestaat dus een niet-triviale oplossing, dus we concluderen dat dit stel vectoren lineair afhankelijk is. Omdat we λ3\lambda_3 vrij gekozen hebben, kunnen we de derde vector, [332]\begin{bmatrix} 3 \\ 3 \\ 2 \end{bmatrix}, weglaten om onafhankelijke vectoren te krijgen. Laat S⊆RnS\subseteq\R^n met S≠∅S\neq\emptyset. Het grootste getal r∈Nr\in\N zodat SS een rr-tal onafhankelijke vectoren bevat, noemen we de rang van SS, notatie rang(S)\text{rang}(S). Als SS een lineaire deelruimte is van Rn\R^n, dan heet de rang van SS de dimensie van SS, notatie dim(S)\text{dim}(S). Als S={0}S=\{0\}, zeggen we dat dim(S)=0\text{dim}(S)=0. Voorbeeld De drie vectoren hierboven hebben een rang 22. Laat S∈RnS\in\R^n. Een eindige deelverzameling B⊆SB \subseteq S heet een basis van SS als: De verzameling BB bestaat uit onafhankelijke vectoren. Elke v∈Sv \in S te schrijven is als lineaire combinatie van elementen uit BB, oftewel S⊆Span(B)S \subseteq \text{Span}(B).
Definitie Een deelverzameling WW van Rn\R^n heet een (lineaire) deelruimte van Rn\R^n als: ∀x,y∈W:x+y∈W \forall x, y \in W : x + y \in W ∀x∈W:∀λ∈R:λx∈W \forall x \in W : \forall \lambda \in \R : \lambda x \in W 0∈W 0 \in W Als V,WV,W deelruimten van Rn\R^n zijn, dan gelden de volgende eigenschappen: De doorsnede V∩WV \cap W is een deelruimte. De vereniging V∪WV \cup W is een deelruimte precies als V⊆WV \subseteq W of W⊆VW \subseteq V. Definitie Als v1,v2,...vr∈Rnv_1, v_2, ... v_r \in \R^n, dan is het opspansel van deze vectoren gelijk aan: Span(v1,v2,...vr)={λ1v1+λ2v2+...+λrvr:λ1,λ2,...λr∈R} \text{Span}(v_1, v_2, ... v_r) = \{ \lambda_1 v_1 + \lambda_2 v_2 + ... + \lambda_r v_r : \lambda_1, \lambda_2, ... \lambda_r \in \R \} Hier een voorbeeld. Voorbeeld Span([100],[010])={λ1[100]+λ2[010]:λ1,λ2∈R} \text{Span}\left(\begin{bmatrix} 1 \\ 0 \\ 0 \end{bmatrix}, \begin{bmatrix} 0 \\ 1 \\ 0 \end{bmatrix}\right) = \left\{ \lambda_1 \begin{bmatrix} 1 \\ 0 \\ 0 \end{bmatrix} + \lambda_2 \begin{bmatrix} 0 \\ 1 \\ 0 \end{bmatrix} : \lambda_1, \lambda_2 \in \R \right\} Dit is gelijk aan het x×yx \times y-grondvlak. Laat A∈Mn,nA \in M_{n,n} en x,b∈Rnx,b\in\R^n. We beschouwen het stelsel Ax=bAx=b. Zo'n stelsel heet homogeen als b=0b=0 en inhomogeen als b≠0b\neq0. De oplossingsverzamelingen noteren we dan met ShomS_\text{hom} voor homogene stelsels en SinhomS_\text{inhom} voor inhomogene stelsels. Er geldt: Shom={x∈Rn:Ax=0} S_\text{hom} = \{ x \in \R^n : Ax = 0 \} Sinhom={x∈Rn:Ax=b≠0} S_\text{inhom} = \{ x \in \R^n : Ax = b \neq 0 \} Twee opmerkingen: De verzameling ShomS_\text{hom} is altijd een lineaire deelruimte van Rn\R^n. De verzameling SinhomS_\text{inhom} is nooit een lineaire deelruimte van Rn\R^n. Verder geldt dat SinhomS_\text{inhom} geschreven kan worden als: Sinhom={x0+y:y∈Shom} voor een x0∈Sinhom. S_\text{inhom} = \{ x_0 + y : y \in S_\text{hom} \} \quad \text{ voor een } x_0 \in S_\text{inhom} \text. Definitie Laat A∈Mm,nA \in M_{m,n}. Dan is de verzamelingen met vectoren x∈Rnx\in\R^n waarvoor Ax=0Ax=0 de nulruimte van AA, notatie Nul(A)\text{Nul}(A). Oftewel: Nul(A)={x∈Rn:Ax=0} \text{Nul}(A) = \{ x \in \R^n : Ax = 0 \} De nulruimte van een matrix is altijd een lineaire deelruimte van Rn\R^n.
We nemen een matrix A∈Mn,nA \in M_{n,n} en vectoren x,b∈Rnx, b \in \R^n en beschouwen de vergelijkingen Ax=bAx=b. Stel rr is het aantal pivot-elementen van A wanneer rijreductie toegepast is. Dan geldt: r=nr=n: het stelsel Ax=bAx=b heeft precies één oplossing x∈Rnx\in\R^n. r<nr<n: het stelsel Ax=bAx=b heeft of geen oplossing, of oneindig veel oplossingen x∈Rnx\in\R^n. Definitie Laat matrix A∈Mn,nA \in M_{n,n}. Een matrix BB heet een inverse van AA als AB=In=BAAB=I_n=BA. Matrix AA heet inverteerbaar als AA een inverse heeft. De inverse van een matrix AA noteren we met A−1A^{-1}. Stelling Als matrix AA inverteerbaar is, dan is de inverse van AA uniek. Bewijs Stel dat matrix AA inverteerbaar is, en dat BB en CC allebei inverses van AA zijn. Dan geldt: AB=ICAB=CIIB=CIB=C \begin{aligned} AB &= I \\ CAB &= CI \\ IB &= CI \\ B &= C \end{aligned} QED. Beschouw de volgende vier beweringen over matrix A∈Mn,nA \in M_{n,n} en vectoren x,b∈Rnx,b\in\R^n: Matrix AA is inverteerbaar. Het stelsel Ax=bAx=b heeft een unieke oplossing xx voor iedere b∈Rnb\in\R^n. Het stelsel Ax=bAx=b heeft een unieke oplossing xx voor een b∈Rnb\in\R^n. Matrix AA heeft na rijreductie nn pivot-elementen. We weten dat beweringen (2), (3) en (4) gelijk aan elkaar zijn. Stelling Bewering (1) ⟹ \implies bewering (2). Bewijs We nemen aan dat AA een inverse heeft, namelijk A−1A^{-1}. We tonen aan dat (a) er een oplossing bestaat en (b) dat deze oplossing uniek is. (a) Beschouw de vector x=A−1bx=A^{-1}b, dan geldt Ax=AA−1b=Ib=bAx=AA^{-1}b=Ib=b. Dit betekent dat x=A−1bx=A^{-1}b een oplossing is voor Ax=bAx=b. (b) Als we een xx hebben zodat Ax=bAx=b, dan volgt A−1Ax=A−1bA^{-1}Ax=A^{-1}b, waaruit volgt dat x=A−1bx=A^{-1}b. Dus de oplossing x=A−1bx=A^{-1}b is uniek. QED. En nu de andere kant op. Stelling Bewering (2) ⟹ \implies bewering (1). Bewijs We nemen aan dat het stelsel Ax=bAx=b een unieke oplossing xx heeft. We bewijzen (a) dat er een C∈Mn,nC \in M_{n,n} bestaat zodat AC=InAC=I_n en (b) dat voor deze CC geldt dat CA=InCA=I_n. (a) Laat voor iedere i=1,2,...,ni=1,2,...,n, de vector cic_i de oplossing zijn voor het stelsel Ax=eiAx=e_i. Dan geldt Ac1=e1Ac_1=e_1, Ac2=e2Ac_2=e_2, etc. Laat nu CC de matrix zijn met c1,c2,...,cnc_1, c_2, ..., c_n in de kolommen. Dan geldt dat ACAC de matrix is met e1,e2,...ene_1, e_2, ... e_n in de kolommen. Er geldt dus dat AC=IAC=I. (b) We tonen aan dat Cx=0Cx=0 een unieke oplossing xx heeft. Er geldt Cx=0 ⟹ ACx=A0Cx=0 \implies ACx=A0, dus x=A0=0x=A0=0. Dus als er een oplossing is, moet het x=0x=0 zijn. Invullen geeft C0=0C0=0, en dit klopt. Dus Cx=0Cx=0 heeft een unieke oplossing x=0x=0. Omdat (2) ⟺ \iff (3), geldt dat Cx=bCx=b een unieke oplossing heeft voor elke b∈Rnb\in\R^n. Volgens (a) bestaat er nu een matrix A′A' zodat CA′=InCA'=I_n. Hieruit volgt dat ACA′=AACA'=A, oftewel A′=AA'=A. QED. Er geldt dus dat beweringen (1), (2), (3) en (4) equivalent zijn. Opgave Vind de inverse van A=[2132]A=\begin{bmatrix} 2 & 1 \\ 3 & 2 \end{bmatrix} als deze bestaat. Uitwerking We zoeken oplossingen van [2132][x1x2]=[10]\begin{bmatrix} 2 & 1 \\ 3 & 2 \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \end{bmatrix} = \begin{bmatrix} 1 \\ 0 \end{bmatrix} en [2132][x1x2]=[01]\begin{bmatrix} 2 & 1 \\ 3 & 2 \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \end{bmatrix} = \begin{bmatrix} 0 \\ 1 \end{bmatrix}. Hiervoor gaan we Gauss-Jordan-eliminatie toepassen. We krijgen: [21103201]∼[102−101−32] \left[ \begin{array}{cc|cc} 2 & 1 & 1 & 0 \\ 3 & 2 & 0 & 1 \end{array} \right] \sim \left[ \begin{array}{cc|cc} 1 & 0 & 2 & -1 \\ 0 & 1 & -3 & 2 \end{array} \right] Dus de inverse is [2−1−32]\begin{bmatrix} 2 & -1 \\ -3 & 2 \end{bmatrix}.
We kijken naar twee voorbeelden van Gauss-Jordan-eliminatie. Gegeven is het algemene stelsel: {x1−2x2=1−2x1+4x2=a(a∈R) \begin{cases} x_1 - 2x_2 = 1 \\ -2x_1 + 4x_2 = a \quad (a\in\R) \end{cases} Dit kunnen we in een uitgebreide coëfficiëntematrix zetten en Gauss-eliminatie toepassen: [1−21−24a]∼r2→r2+2r1[1−2100a+2] \left[ \begin{array}{cc|c} 1 & -2 & 1 \\ -2 & 4 & a \end{array} \right] \stackrel{r_2 \to r_2 + 2r_1}{\sim} \left[ \begin{array}{cc|c} 1 & -2 & 1 \\ 0 & 0 & a+2 \end{array} \right] De pivot-elementen in deze matrix zijn blauw gekleurd: [1−2100a+2] \left[ \begin{array}{cc|c} \colorbox{cyan}1 & -2 & 1 \\ 0 & 0 & a+2 \end{array} \right] Omdat x1x_1 een pivot-element in zijn kolom heeft, is x1x_1 een pivot-variabele. Daarentegen is x2x_2 geen pivot-variabele. Merk op dat deze matrix volledig rijgereduceerd is, wat betekent dat we geen Jordan-eliminatie meer kunnen toepassen. We beschouwen twee gevallen: (1) a≠−2a\neq-2 en (2) a=−2a=-2. Voor geval (1) met a≠−2a\neq-2 zien we dat het stelsel geen oplossingen heeft, het stelsel is strijdig. De oplossingsverzameling is hier ∅\emptyset. Voor geval (2) kunnen we x2x_2 vrij kiezen, omdat x2x_2 geen pivot-variabele is. We kiezen x2=tx_2=t met t∈Rt\in\R. De eerste rij geeft x1−2x2=1x_1-2x_2=1, dus x1=2t+1x_1=2t+1. Dit geeft als oplossingsverzameling: {[2t+1t]:t∈R}={[10]+t[21]:t∈R} \left\{ \begin{bmatrix} 2t+1 \\ t \end{bmatrix} : t\in\R \right\} = \left\{ \begin{bmatrix} 1 \\ 0 \end{bmatrix} + t \begin{bmatrix} 2 \\ 1 \end{bmatrix} : t\in\R \right\} Hierin herkennen we de parametervoorstelling van een lijn. We hebben hier dus een hele lijn aan oplossingen. Gegeven is het algemene stelsel: {x1+2x2+x4=12x1+4x2+x3+4x4=1−x1−2x2+x3+x4=−2 \begin{cases} x_1 + 2x_2 + x_4 = 1 \\ 2x_1 + 4x_2 + x_3 + 4x_4 = 1 \\ -x_1 - 2x_2 + x_3 + x_4 = -2 \end{cases} We stellen een uitgebreide coëfficiëntematrix op en passen Gauss-eliminatie toe: [1201124141−1−211−2]∼r2→r2−2r1,r3→r3+r1[120110012−10012−1]∼r3→r3−r2[120110012−100000] \left[ \begin{array}{cccc|c} 1 & 2 & 0 & 1 & 1 \\ 2 & 4 & 1 & 4 & 1 \\ -1 & -2 & 1 & 1 & -2 \end{array} \right] \stackrel{r_2 \to r_2 - 2r_1, r_3 \to r_3 + r_1}{\sim} \left[ \begin{array}{cccc|c} 1 & 2 & 0 & 1 & 1 \\ 0 & 0 & 1 & 2 & -1 \\ 0 & 0 & 1 & 2 & -1 \end{array} \right] \stackrel{r_3 \to r_3 - r_2}{\sim} \\ \left[ \begin{array}{cccc|c} 1 & 2 & 0 & 1 & 1 \\ 0 & 0 & 1 & 2 & -1 \\ 0 & 0 & 0 & 0 & 0 \end{array} \right] Merk op dat hier zowel Gauss-eliminatie als Jordan-eliminatie klaar is; de matrix is volledig rijgereduceerd. De pivot-elementen in deze matrix zijn blauw gekleurd: [120110012−100000] \left[ \begin{array}{cccc|c} \colorbox{cyan}1 & 2 & 0 & 1 & 1 \\ 0 & 0 & \colorbox{cyan}1 & 2 & -1 \\ 0 & 0 & 0 & 0 & 0 \end{array} \right] De pivot-variabelen zijn hier x1x_1 en x3x_3, dus x2x_2 en x4x_4 mogen we vrij kiezen. We kiezen x2=sx_2=s en x4=tx_4=t voor s,t∈Rs,t\in\R. Er geldt x1+2x2+x4=1x_1+2x_2+x_4=1, dus x1=1−2s−tx_1=1-2s-t. Verder x3+2x4=−1x_3+2x_4=-1, dus x3=−1−2tx_3=-1-2t. Dit geeft de oplossingsverzameling: {[1−2s−ts−1−2tt]:s,t∈R}={[10−10]+s[−2100]+t[−10−21]:s,t∈R} \left\{ \begin{bmatrix} 1-2s-t \\ s \\ -1-2t \\ t \end{bmatrix} : s,t\in\R \right\} = \left\{ \begin{bmatrix} 1 \\ 0 \\ -1 \\ 0 \end{bmatrix} + s \begin{bmatrix} -2 \\ 1 \\ 0 \\ 0 \end{bmatrix} + t \begin{bmatrix} -1 \\ 0 \\ -2 \\ 1 \end{bmatrix} : s,t\in\R \right\} Hierin herkennen we de parametervoorstelling van een vlak in R4\R^4. We hebben hier dus een heel vlak aan oplossingen.
Een m×nm \times n-matrix AA bestaat uit mnmn getallen uit R\R, gesorteerd in mm rijen en nn kolommen. Het getal ai,ja_{i,j} zit in de ii-de rij en in de jj-de kolom. A=[a1,1a1,2a1,3…a1,na2,1a2,2a2,3…a2,na3,1a3,2a3,3…a3,n⋮⋮⋮⋱⋮am,1am,2am,3…am,n] A = \begin{bmatrix} a_{1,1} & a_{1,2} & a_{1,3} & \dots & a_{1,n} \\ a_{2,1} & a_{2,2} & a_{2,3} & \dots & a_{2,n} \\ a_{3,1} & a_{3,2} & a_{3,3} & \dots & a_{3,n} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ a_{m,1} & a_{m,2} & a_{m,3} & \dots & a_{m,n} \end{bmatrix} De verzameling met alle m×nm \times n-matrices is Mm,nM_{m,n}. De identiteitsmatrix, notatie II, is de matrix met overal een 11 op de diagonaal van linksboven naar rechtsonder, en verder overal een 00. De getransponeerde matrix van een m×nm \times n-matrix AA, notatie AtA^t, is de matrix die we uit AA krijgen door ai,jt=aj,ia^t_{i,j}=a_{j,i} voor alle mogelijke i,ji,j. Voorbeeld [231−101]t=[2−13011] \begin{bmatrix} 2 & 3 & 1 \\ -1 & 0 & 1 \end{bmatrix}^t = \begin{bmatrix} 2 & -1 \\ 3 & 0 \\ 1 & 1 \end{bmatrix} Het optellen van twee matrices AA en BB, notatie A+BA+B, kan alleen als AA en BB dezelfde grootte hebben (evenveel rijen en evenveel kolommen). Het i,ji,j-de element van A+BA+B is gelijk aan ai,j+bi,ja_{i,j} + b_{i,j}. Voorbeeld [−1236]+[3−87−1]=[2−6105] \begin{bmatrix} -1 & 2 \\ 3 & 6 \end{bmatrix} + \begin{bmatrix} 3 & -8 \\7 & -1 \end{bmatrix} = \begin{bmatrix} 2 & -6 \\ 10 & 5 \end{bmatrix} Voor de vermenigvuldiging van een getal λ∈R\lambda\in\R en een matrix AA, notatie λA\lambda A, wordt elk element uit AA vermenigvuldigd met λ\lambda. Voorbeeld 4[3−87−1]=[12−3228−4] 4 \begin{bmatrix} 3 & -8 \\ 7 & -1 \end{bmatrix} = \begin{bmatrix} 12 & -32 \\ 28 & -4 \end{bmatrix} Het product van m×nm \times n-matrix AA en n×pn \times p-matrix BB bestaat alleen als het aantal kolommen van AA gelijk is aan het aantal rijen van BB. Het element op positie i,ji,j van het product ABAB is dan gelijk aan: ∑j=1nai,jbj,k voor 1≤i≤m en 1≤k≤p \sum_{j=1}^n a_{i,j} b_{j,k} \quad \text{ voor } 1 \le i \le m \text{ en } 1 \le k \le p Voorbeeld [2385][7321]=[2096629] \begin{bmatrix} 2 & 3 \\ 8 & 5 \end{bmatrix} \begin{bmatrix} 7 & 3 \\ 2 & 1 \end{bmatrix} = \begin{bmatrix} 20 & 9 \\ 66 & 29 \end{bmatrix} Voor matrices A,B,CA,B,C en een getal λ∈R\lambda\in\R geldt: A+B=B+A A + B = B + A (A+B)+C=A+(B+C) (A + B) + C = A + (B + C) λ(A+B)=λA+λB \lambda (A + B) = \lambda A + \lambda B (λ+μ)A=λA+μA (\lambda + \mu) A = \lambda A + \mu A A(BC)=(AB)C A(BC) = (AB)C A(B+C)=AB+AC A(B + C) = AB + AC en (A+B)C=AC+BC (A + B)C = AC + BC (λA)B=A(λB)=λ(AB) (\lambda A)B = A(\lambda B) = \lambda(AB) IA=A=AI IA = A = AI Gegeven is het volgende lineaire stelsel met vergelijkingen: {x1+x2−x3=12x1+4x2−x3=4−x1+5x2+6x3=9 \begin{cases} x_1 + x_2 - x_3 = 1 \\ 2x_1 + 4x_2 - x_3 = 4 \\ -x_1 + 5x_2 + 6x_3 = 9 \end{cases} Op dit stelsel kunnen we drie operaties uitvoeren, die de oplossingsverzameling (verzameling met alle oplossingen) van het stelsel niet veranderen: Volgorde van de vergelijkingen verwisselen. Een vergelijking links en rechts vermenigvuldigen met een reëel getal λ≠0\lambda\neq0. Een veelvoud van een vergelijking optellen bij een andere vergelijking. De vergelijkingen kunnen we als een product van matrices schrijven: [11−124−1−156][x1x2x3]=[149] \begin{bmatrix} 1 & 1 & -1 \\ 2 & 4 & -1 \\ -1 & 5 & 6 \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \\ x_3 \end{bmatrix} = \begin{bmatrix} 1 \\ 4 \\ 9 \end{bmatrix} In dit geval heet de eerste matrix de coëfficiëntenmatrix en de laatste matrix de uitkomstenvector. Omdat de kolom met x1,x2,x3x_1,x_2,x_3 niet echt informatie geeft over het stelsel, voegen we de coëfficiëntenmatrix en uitkomstenvector samen tot één uitgebreide coëfficiëntenmatrix: [11−1124−14−1569] \left[ \begin{array}{ccc|c} 1 & 1 & -1 & 1 \\ 2 & 4 & -1 & 4 \\ -1 & 5 & 6 & 9 \end{array} \right] Bij Gauss-eliminatie willen we de uitgebreide coëfficiëntenmatrix tot rijgereduceerde vorm terugbrengen. Dat betekent dat voor iedere rij, behalve de eerste rij, minstens één van de volgende geldt: De rij bevat alleen maar nullen. Het aantal leidende nullen is groter dan het aantal leidende nullen in de voorgaande rij. Met de uitgebreide coëfficiëntenmatrix van het voorbeeld gaat dat alsvolgt: [11−1124−14−1569]∼r2→r2−2r1,r3→r3+r1[11−11021206510]∼r3→r3−3r2[11−1102120024] \left[ \begin{array}{ccc|c} 1 & 1 & -1 & 1 \\ 2 & 4 & -1 & 4 \\ -1 & 5 & 6 & 9 \end{array} \right] \stackrel{r_2 \to r_2 - 2r_1, r_3 \to r_3 + r_1}{\sim} \left[ \begin{array}{ccc|c} 1 & 1 & -1 & 1 \\ 0 & 2 & 1 & 2 \\ 0 & 6 & 5 & 10 \end{array} \right] \stackrel{r_3 \to r_3 - 3r_2}{\sim} \left[ \begin{array}{ccc|c} 1 & 1 & -1 & 1 \\ 0 & 2 & 1 & 2 \\ 0 & 0 & 2 & 4 \end{array} \right] In de laatste matrix zitten pivot-elementen. Een pivot-element is het eerste getal ongelijk aan 00 in een rij van een rijgereduceerde matrix. Hieronder zijn de pivot-elementen blauw gemaakt: [11−1102120024] \left[ \begin{array}{ccc|c} \colorbox{cyan}1 & 1 & -1 & 1 \\ 0 & \colorbox{cyan}2 & 1 & 2 \\ 0 & 0 & \colorbox{cyan}2 & 4 \end{array} \right] Een pivot-variabele is een variabele met een pivot-element in zijn kolom. In dit geval zijn dus x1,x2,x3x_1,x_2,x_3 allemaal pivot-variabelen. Na Gauss-eliminatie kun je nog Jordan-eliminatie toepassen om de matrix terug te brengen tot volledig rijgereduceerde vorm. Dat betekent dat ieder pivot-element gelijk is aan 11 en iedere kolom met een pivot-element verder alleen nullen bevat. Jordan-eliminatie gaat als volgt: [11−1102120024]∼r3→12r3[11−1102120012]∼r1→r1+r3,r2→r2−r3[110302000012]∼r2→12r2[110301000012]∼r1→r1−r2[100301000012] \left[ \begin{array}{ccc|c} 1 & 1 & -1 & 1 \\ 0 & 2 & 1 & 2 \\ 0 & 0 & 2 & 4 \end{array} \right] \stackrel{r_3 \to \frac12 r_3}\sim \left[ \begin{array}{ccc|c} 1 & 1 & -1 & 1 \\ 0 & 2 & 1 & 2 \\ 0 & 0 & 1 & 2 \end{array} \right] \stackrel{r_1 \to r_1 + r_3, r_2 \to r_2 - r_3}\sim \\ \left[ \begin{array}{ccc|c} 1 & 1 & 0 & 3 \\ 0 & 2 & 0 & 0 \\ 0 & 0 & 1 & 2 \end{array} \right] \stackrel{r_2 \to \frac12 r_2}\sim \left[ \begin{array}{ccc|c} 1 & 1 & 0 & 3 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 2 \end{array} \right] \stackrel{r_1 \to r_1 - r_2}\sim \left[ \begin{array}{ccc|c} 1 & 0 & 0 & 3 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 2 \end{array} \right] Nu is het stelsel opgelost. We krijgen namelijk de oplossingsverzameling: {[302]} \left\{ \begin{bmatrix} 3 \\ 0 \\ 2 \end{bmatrix} \right\}
Voor vectoren a,b≠0a, b \neq 0 met hoek θ\theta tussen aa en bb zodat 0≤θ≤π0\leq\theta\leq\pi, is het inproduct van aa en bb, notatie a⋅ba \cdot b, gelijk aan ∣a∣∣b∣cos(θ)|a||b|\cos(\theta). Omdat cos(12π)=0cos(\frac12\pi)=0, volgt dat a⊥b ⟺ a⋅b=0a \perp b \iff a \cdot b = 0. Twee vectoren die loodrecht op elkaar staan, heten orthogonaal. We spreken af dat als a=0a=0 of b=0b=0, ook geldt dat a⋅b=0a \cdot b = 0. Hoek θ\theta De cosinusregel zegt dat voor driehoek ΔABC\Delta ABC met θ=∠BAC\theta = \angle BAC geldt: BC2=AB2+AC2−2⋅AB⋅cos(θ) BC^2 = AB^2 + AC^2 - 2 \cdot AB \cdot \cos(\theta) Stelling Voor vectoren x=(x1,x2,x3)x = (x_1, x_2, x_3) en y=(y1,y2,y3)y = (y_1, y_2, y_3) geldt x⋅y=x1y1+x2y2+x3y3x \cdot y = x_1y_1 + x_2y_2 + x_3y_3. Bewijs In driehoek ΔABC\Delta ABC, neem x=ABx = AB en y=ACy = AC. Dan is y−x=BCy - x = BC. Hieruit volgt dan: ∣y−x∣2=∣x∣2+∣y∣2−2∣x∣∣y∣cos(θ) |y-x|^2 = |x|^2 + |y|^2 - 2|x||y|\cos(\theta) Maar ∣y−x∣2|y-x|^2 is ook gelijk aan: ∣y−x∣2=(y1−x1)2+(y2−x2)2+(y3−x3)2=x12+x22+x32+y12+y22+y32−2(x1y1+x2y2+x3y3)=∣x∣2+∣y∣2−2(x1y1+x2y2+x3y3) \begin{aligned} |y-x|^2 &= (y_1-x_1)^2 + (y_2-x_2)^2 + (y_3 - x_3)^2 \\ &= x_1^2 + x_2^2 + x_3^2 + y_1^2 + y_2^2 + y_3^2 - 2(x_1y_1 + x_2y_2 + x_3y_3) \\ &= |x|^2 + |y|^2 - 2(x_1y_1 + x_2y_2 + x_3y_3) \end{aligned} Hieruit volgt dat: ∣x∣2+∣y∣2−2∣x∣∣y∣cos(θ)=∣x∣2+∣y∣2−2(x1y1+x2y2+x3y3) |x|^2 + |y|^2 - 2|x||y|\cos(\theta) = |x|^2 + |y|^2 - 2(x_1y_1 + x_2y_2 + x_3y_3) ∣x∣∣y∣cos(θ)=x1y1+x2y2+x3y3=x⋅y |x||y|\cos(\theta) = x_1y_1 + x_2y_2 + x_3y_3 = x \cdot y QED. Met deze stelling kun je de hoek θ\theta tussen vectoren xx en yy berekenen met: cos(θ)=x⋅y∣x∣∣y∣=x1y1+x2y2+x3y3x12+x22+x32⋅y12+y22+y32 \cos(\theta) = \frac{x \cdot y}{|x||y|} = \frac{x_1y_1 + x_2y_2 + x_3y_3}{\sqrt{x_1^2 + x_2^2 + x_3^2} \cdot \sqrt{y_1^2 + y_2^2 + y_3^2}} Voor vectoren x,y,zx,y,z en een getal λ∈R\lambda\in\R gelden de volgende regels: x⋅y=y⋅x x \cdot y = y \cdot x (λx)⋅y=λ(x⋅y) (\lambda x) \cdot y = \lambda(x \cdot y) (x+y)⋅z=x⋅z+y⋅z (x + y) \cdot z = x \cdot z + y \cdot z x⋅x≥0 x \cdot x \ge 0 en x⋅x ⟺ x=0 x \cdot x \iff x = 0 Definitie Een normaalvector van een vlak VV is een vector die loodrecht staat op dat vlak VV. Neem een vlak VV en een normaalvector nn van dat vlak. Neem verder een vector pp van de oorsprong OO naar het vlak VV. Dan geldt voor iedere vector xx van OO naar VV dat x−px-p op het vlak ligt, dus n⋅(x−p)=0 n \cdot (x-p) = 0 , ofwel: n⋅x=n⋅p n \cdot x = n \cdot p Deze vergelijking voor xx is een vergelijking voor het vlak VV. Voor vectoren x,y∈Rnx,y\in\R^n spreken we de volgende regels af: x⋅y=x1y1+x2y2+...+xnyn x \cdot y = x_1y_1 + x_2y_2 + ... + x_ny_n ∣x∣=x⋅x |x| = \sqrt{x \cdot x} x⋅y=∣x∣∣y∣cos(θ) x \cdot y = |x||y|\cos(\theta) , met 0≤θ≤π0 \leq \theta \leq \pi de "hoek" tussen xx en yy. Stelling Voor twee vectoren x,y∈Rnx,y\in\R^n geldt ∣x⋅y∣≤∣x∣∣y∣ |x \cdot y| \leq |x||y| Bewijs Omdat x⋅x≥0x \cdot x \ge 0 geldt voor elke λ∈R\lambda \in \R: (λx+y)⋅(λx+y)≥0 (\lambda x + y)\cdot(\lambda x + y) \ge 0 λ2x⋅x+λx⋅y+λy⋅x+y⋅y≥0 \lambda^2 x \cdot x + \lambda x \cdot y + \lambda y \cdot x + y \cdot y \ge 0 λ2∣x∣2+2λx⋅y+∣y∣2≥0 \lambda^2 |x|^2 + 2\lambda x \cdot y + |y|^2 \ge 0 Dit is een kwadratische functie in λ\lambda die groter is dan of gelijk is aan 00. Er zijn dus nul of één oplossingen, waaruit volgt dat de discriminant kleiner of gelijk is aan 00. 4(x⋅y)2−4∣x∣2∣y∣2≤0 4(x \cdot y)^2 - 4|x|^2|y|^2 \le 0 (x⋅y)2≤∣x∣2∣y∣2 (x \cdot y)^2 \le |x|^2 |y|^2 x⋅y≤∣x∣∣y∣ x \cdot y \le |x||y| QED.
Een vector vv kan worden voorgesteld als een "pijl" met een lengte ∣v∣|v| en een richting. Een vector is ook wel een translatie (verschuiving) in de ruimte. Met vectoren kan op de volgende manieren gerekend worden: Optellen: voor vectoren vv en ww is v+wv+w een nieuwe vector. Aftrekken: voor vectoren vv en ww is v−wv-w een nieuwe vector. Scalaire vermenigvuldiging: voor vector vv en een getal λ∈R\lambda\in\R is λv\lambda v een nieuwe vector. De nulvector 00 is een vector met lengte 00 die geen richting heeft. Dit kan worden vergeleken met een stip. Voor vectoren vv en ww en getallen λ,μ∈R\lambda,\mu\in\R gelden de volgende rekenregels: a+b=b+a a + b = b + a a+(b+c)=(a+b)+c a + (b + c) = (a + b) + c λ(a+b)=λa+λb \lambda (a + b) = \lambda a + \lambda b (λ+μ)a=λa+μa (\lambda + \mu) a = \lambda a + \mu a λ(μa)=(λμ)a \lambda (\mu a) = (\lambda \mu) a We gaan een assenstelsel met coördinaten introduceren: Kies een oorsprong OO, zodat iedere vector begint in OO. Kies vervolgens drie vectoren e1,e2,e3e_1, e_2, e_3 met lengte 11 die onderling loodrecht op elkaar liggen. Nu kan iedere vector vv geschreven worden als v=λ1e1+λ2e2+λ3e3v = \lambda_1e_1 + \lambda_2e_2 + \lambda_3e_3 met λ1,λ2,λ3∈R\lambda_1,\lambda_2,\lambda_3\in\R. Dit schrijven we op als v=[λ1λ2λ3] v = \begin{bmatrix} \lambda_1 \\ \lambda_2 \\ \lambda_3 \end{bmatrix} of v=(λ1,λ2,λ3) v = (\lambda_1, \lambda_2, \lambda_3) . Nu gaan we de meetkundige objecten punten, lijnen en vlakken als vectoren schrijven. Gegeven een oorsprong OO en een punt PP, dan hebben we de vector OPOP van OO naar PP. Punt PP identificeren we hier met vector OPOP, zodat de termen "punt" en "vector" door elkaar te gebruiken zijn. Gegeven lijn ll, dan kun je een richtingsvector vv op lijn ll en een steunvector ss van OO naar een punt op ll kiezen. Nu is ll te schrijven als: l={s+λv:λ∈R} l = \{s + \lambda v : \lambda \in \R\} Gegeven een vlak VV met vectoren vv en ww die op dat vlak liggen en een vector uu van OO naar vlak VV, kun je het vlak VV schrijven als: V={u+λ1v+λ2w:λ1,λ2∈R} V = \{u + \lambda_1v + \lambda_2w : \lambda_1,\lambda_2 \in \R \} Voorwaarde is wel dat vv en ww niet op één lijn liggen. Anders gezegd, er moet geen μ∈R\mu\in\R bestaan zodat v=μwv=\mu w. Met deze concepten kunnen we vectoren uitbreiden tot elke dimensie. Naam Vector Vectorlengte R\R v=λ1e1=(λ1)v=\lambda_1e_1=(\lambda_1) ∣v∣=λ12|v|=\sqrt{\lambda_1^2} R2\R^2 v=λ1e1+λ2e2=(λ1,λ2)v=\lambda_1e_1+\lambda_2e_2=(\lambda_1,\lambda_2) ∣v∣=λ12+λ22|v|=\sqrt{\lambda_1^2+\lambda_2^2} R3\R^3 v=λ1e1+λ2e2+λ3e3=(λ1,λ2,λ3)v=\lambda_1e_1+\lambda_2e_2+\lambda_3e_3=(\lambda_1,\lambda_2,\lambda_3) ∣v∣=λ12+λ22+λ32|v|=\sqrt{\lambda_1^2+\lambda_2^2+\lambda_3^2} Rn\R^n v=λ1e1+...+λnen=(λ1,...,λn)v=\lambda_1e_1+...+\lambda_ne_n=(\lambda_1,...,\lambda_n) ∣v∣=λ12+...+λn2|v|=\sqrt{\lambda_1^2+...+\lambda_n^2}
Gemaakt door Jeroen van Rensen.