Transcript for:
9. Lektion Indre produkter og ortogonalitet

Godmorgen, så ser det ud til at vi er klar Og hvis jeg kigger over hos mig, så ser det ud til at der er lyd igennem og billede igennem Så vi bare skal gå i gang Så den her blog er online, som I jo nok har opdaget, ellers så ville I ikke se med nu Så jeg streamer her Og det er live, så I også kan stille spørgsmål. Og det må I enten gøre i chatten, eller I kan også sende en mail til mig. Jeg skal nok holde øje med begge dele. Og jeg laver det sådan, at det der nu bliver skrevet i chatten, det er ikke noget, man kan se efterfølgende. Så I skal altså ikke være bange for, at man kan gå ind og så læse kommentarerne, efter forelæsningen er slut. Det jeg gennemgår nu, det bliver automatisk optaget, så hvis I følger det her link efter forelæsningen, så kan I så se videooptagelsen af forelæsningen igen. Og det kan være, at I skal sige, at hvis I skal sende en mail, så er det rene-math.au.dk Så jeg forsøger som sagt at holde øje med begge dele. Der er en lille smule forsinkelse med, at... Videoen skal gennem YouTube-server og så ud til jer, men jeg forsøger at svare så hurtigt jeg nu kan. Ja, og som tilværende, så lægger jeg også slides'ene op bagefter dem her, jeg skriver i. Men lad os starte med at kigge på, hvad det var, I gerne alle sammen skulle have set i den sidste forelæsning. Så vi så på det her med nogle... diagonaliserbare matriser, og det betyder altså, at vi har en matrix A, og så når vi kan skrive den som P gange D gange P minus første, hvor P det er en inverterbar matrix, fordi ellers gav det da ikke nogen mening, og vores D her, det er en diagonal matrix, så er det, at vi siger, at A den er diagonaliserbar. Så er altså, at A er similær med en diagonal matrix. Og så noget af det, vi så, det var at sådan en Ja, det skal selvfølgelig gælde heroppe, at den her er kvadratisk, ellers er der noget med dimensionerne herovre, der ikke kommer til at passe. Men en kvadratisk matrix er diagonaliserbar, hvis og kun hvis vi kan finde en linært uafhængig egenvektor. Så det var noget med, at når vi skulle diagonalisere, at så fandt vi egenværdier og de tilhørende egenvektorer, og det var så kun, hvis de her såkaldte algebraiske multiplicitet stemte overens med den geometriske multiplicitet. Og den måde vores faktorisering eller vores diagonalisering så ser ud, det er, at den her matrix D, det vil være egenværdierne for vores matrix. Og søjlen i P, det vil være en basis for N, der består af egenvektorer. Og de skal komme i samme række, følger sådan, at første søjle i P, det svarer til den første egenværdi, der står i D. Anden søjle skal svare til den anden egenværdi, osv. Så de skal ligesom komme parvist de her egenvektorer op. egenværdier. Og når vi så skal tjekke, om en matrix kan diagonaliseres, så kan vi finde de egenværdier. Og hvis nu vi kan se, at der er n forskellige egenværdier, så altså jeg har en n kryds n, og alle mine n egenværdier er forskellige, så ved vi sådan set allerede, at vi kan finde en diagonalisering. Fordi det er jo det her med, at hvis vi har en egenværdi, så har vi også en tilhørende egenvektor. Egenvektorer hørende til forskellige egenværdier, de er linært uafhængige. Så hvis vi har n forskellige egenværdier, så har vi også n linært uafhængige egenvektorer. Og det danner netop den basis, som vi godt vil have her. Altså en basis for rn. Så i det tilfælde er vi færdige. Hvis nu vi har mindst en egenværdi, hvor den algebraiske multiplicitet er større end eller lige med 2, så altså vi har en eller anden råd, der har en højere multiplicitet i det karakteristiske polynomium, altså det her lambda minus vores egen værdi, at det er opløftet i et eller andet større end 1. Hvis vi har sådan en egen værdi, så er vi nødt til at finde det tilhørende egenrum. Og det, der så skal gælde for, at vi kan diagnostere matrisen, det er, at dimensionen af egenrummet skal være præcis det her m. Altså at den her algebraiske multiplicitet skal være lige med Den geometriske multiplicitet. Og så skulle jeg også gerne se lidt om basisgift. Så hvis jeg har en afbindning her t, der går fra Rn ind i Rm, og det er en linær afbindning, så kan jeg repræsentere den i en anden basis, ved at jeg nu tager og siger, at der hvor jeg går fra, der laver jeg en basis b, der består af vektorerne b1 op til bn, og så vælger jeg en basis c for Rm, og der kan jeg selvfølgelig også skrive, Tilsvaret op er, at de hedder C1 op til Cm, men nu skal jeg ikke lige bruge, hvad vektorerne hedder her, så vi kalder dem bare C. Så hvis jeg har de to baser, og jeg siger, at det er dem, jeg vil regne med, så vil matrixrepræsentationen for min afbilling med hensyn til de her to baser, den vil være givet ved en matrix, hvor første søjle, det er, at jeg tager første basisvektor der, hvor jeg kommer fra, altså den første basisvektor heroppe i Rn, og det er den, vi kalder B1. Så jeg tager den vektor, så tager jeg billedet af den, Altså jeg bruger mit t på vektoren, og når jeg så har fået det ud, så udtrykker jeg det i min basis c. Så altså jeg tager koordinatvektoren med hensyn til basen c, der hvor jeg går til. Anden så vil jeg altså igen, jeg tager anden basisvektor der hvor jeg kommer fra, tager billedet af den, og så udtrykker jeg den ved hjælp af basen c. Og sådan gør jeg egentlig videre, indtil jeg har gjort det for alle basisvektorerne i den her anden, altså der hvor jeg kommer fra. Så det er matrikrepræsentationen for t med hensyn til de her to baser. Hvis nu det her rum, min dispositionsmængde Rm, hvis det i virkeligheden er det samme som Rn, og jeg har valgt de samme baser, så i stedet for at kalde det her matrikrepræsentationen for t med hensyn til baserne B og B, så siger vi bare, at det er B-matrisen for vores afbildning, og vi bruger den her. Så egentlig vi låner notationen fra koordinatvektor og siger, at når jeg skriver t, firkantede klammer og så et senglet b, så betyder det, at det er matisk representationen for t med hensyn til den her basis. Ligesom at koordinatvektoren det også er representationen af vores vektor med hensyn til den basis, vi regner med. Så det er egentlig bare den notation, vi har lånt og brugt igen. Så det var sådan en kort gennemgang af noget af det. I så sidste gang. Så vi skal i gang med en ny blok, og vi skal først lige finde ud af, hvad er det egentlig, eller jeg skal måske forklare jer, hvad er det, vi gerne vil i den her blok. Og sådan kort sagt går det ud på, at vi skal snakke om noget med geometri i Rn. Så man kan sige, at hvis vi regner i planet eller rummet, så har vi sådan en naturlig forståelse af, hvad betyder det, for eksempel at vi måler længden af en vektor, eller hvis vi kan finde en vinkel mellem vektorer, altså hvordan... Hvordan skal vi definere det? Der har vi en ret god idé i planet og rummet, fordi det er nogle ting, vi kan forestille os, og vi kan tegne det, hvordan det ser ud. Så man kunne forestille sig, at hvis vi skal finde længden, så tager vi en lineal og lægger op langs vektoren, og så på den måde kan vi få en længde ud. Men hvis nu vi er op i et generelt Rn, hvor N er større end 3, Så er det måske ikke helt så nemt lige at sige, hvordan skal vi definere en længde, sådan at det giver mening, og kan man snakke om fx at to vektorer er vinkelrette, når nu vi kommer op i højere dimensioner. Fordi vi kan jo ikke længere tegne det, så vi kan ikke lige tænke, at vi kan lægge en vinkelmåler på og så måle en vinkel. Så hvordan skal vi gøre det på en måde, hvor det stadig giver mening og generaliserer den intuition, vi har fra R2 og R3? Så det kan man sige, det er vores plan i dag. Det er, at mange af de her geometriske begreber, vi allerede kender, dem skal vi nu have generaliseret til højere dimensioner, så vi også kan snakke om det her, uden at vi nødvendigvis kan forestille os, hvordan det ser ud, eller uden at vi kan tegne de her rum. Så vi har tre mål i dag. Det er, at vi skal finde ud af, hvad betyder det at tage længden af en vektor, og længden mellem vektorer, når vi regner i generelle vektorrum. eller generelle reelle vektorrum, må jeg hellere sige for at være helt præcis. Så skal vi prøve at se lidt på, kan vi give mening til at snakke om, at to vektorer er vinklerette i et generelt reelt vektorrum. Og så til sidst har vi sådan lidt en opvarmning til næste gang. Så i dag kigger vi på afstanden fra en vektor ned til en linje, så altså den korteste vej at gå fra en vektor til en linje. Og næste gang udvider vi så til, at det er fra... Altså den korteste vej fra en vektor og ned til et vilkårligt underrum. Så det er de her tre ting, vi skal have klaret i dag. Det viser sig, at det vi egentlig får løst ved, det er, at vi indfører det, man kalder et indre produkt. Og det indre produkt her, det er sådan set bare det skalarprodukt, som vi er stødt på før. For eksempel da vi snakkede matrixmultiplikation, der har jeg i hvert fald sagt, at det svarer til et skalarprodukt eller et prikprodukt. Men det her skalarprodukt eller prikprodukt, det kommer altså af noget mere generelt, som man kalder et indre produkt. Så nu har jeg to vektorer u. og v, og dem definerer vi eller der definerer vi, at det ændrer produkt mellem de to, altså u prikket med v, det er givet ved, at det er u1 prikket med v1 plus u2 prikket med v2 osv. eller undskyld, gange u1 gange u1 gange v1 plus u2 gange v2 osv. ned til un gange un og så lægger jeg dem sammen, så det er elementvis ganger jeg sammen og så tager jeg summen af alle de produkter, jeg har fået der Så det kalder vi det indre produkt. Og sådan en god ting at huske her, fordi det kan være smart, hvis man skal løse nogle opgaver eller lave nogle bestemte beviser, kan det være en fordel at sige, at i stedet for at tænke på det her indre produkt, så kan jeg tænke på det som matrix-multiplikation. Så nu har jeg lavet en matrix her, hvor indgangene i, altså der er kun en række, men indgangene i den her række, det er De samme elementer, som står i u. Fordi så vil det, der står heroppe, det vil lige præcis være det her matrix produkt, eller matrixvektor produkt. Fordi jeg vil få v1 gange u1, det er det, der står der. v2 gange u2, det er det, der står der. Og så videre ned til vn gange un, så det er den, der står der. Så den her lighed holder, simpelthen bare ud fra definitionen af et matrixvektor produkt. Vi kan jo så også sige, at den her matrix, hvad er det egentlig? Jamen det er, at jeg har taget min søjlevektor u, og så har jeg lagt ned som en rækkevektor. Men det betyder jo lige præcis, at jeg har taget u og transponeret den, og så ganger jeg v på. Så det kan være godt at huske det her med, at sådan et prikprodukt, eller et indre produkt mellem u og v, det kan jeg også skrive som u transponeret ganget v. Og nu om gangen. I støder måske også på noget med u-v transponeret nogle af her Så er det altså ikke et indre produkt Så er det noget der hedder et ydre produkt Fordi det her det bliver et tal Ligesom den her oppe Og hvis man har det omvendt Så det er den anden vektor der er transponeret Så bliver det en matrix i stedet for Så Og som sagt Skalarprodukt og prikprodukt Altså det er andre navne til præcis den her operation. Men mere generelt ville vi kalde det et indre produkt, fordi der er også andre indre produkter end det her prik-produkt, som vi kender. Men i det her kursus er det altså kun den her type, vi kigger på. Så nu har jeg to kvittorer, og jeg vil finde det indre produkt mellem dem. Jamen det er bare, at jeg tager Elementvis, så går jeg ind, så det er 1 gange 3 plus 4 gange minus 1 plus 2 gange 8 plus 7 gange 7. Og så regner jeg det sammen, så det er 3 minus 1, eller undskyld, minus 4, så det er minus 1 plus 16, så det er 15 plus 49, så det er 64. Så det indre produkt mellem dem her er 64. Så har vi to vektorer her, hvor jeg spørger, kan vi finde det indre produkt mellem dem? Jamen det kan jeg ikke rigtigt, fordi de har ikke lige mange indgange. Så jeg kunne godt prøve at gå i gang, men så bliver der ligesom et tal til års her. Så vi kan sige, at nej, det er ikke defineret, da vektorerne ikke har lige mange indgange. Så det er altså kun, når vi har to vektorer, der ligger i det samme vektorrum, det er kun i det tilfælde, at vi kan finde det indre produkt mellem dem. Og sådan et indre produkt har en masse pæne egenskaber. Så jeg har tre vektorer her, og så har jeg en skalar C. Så gælder det, at det indre produkt er symmet. Så altså om jeg tager u og prikker med v, eller v og prikker med u, det gør ikke nogen forskel. Så er det distributivt, altså jeg må gange ind i parenteser. Så hvis jeg har en sum af nogle vektorer, og jeg prikker det med en tredje vektor, så må jeg prikke ind i parentesen, så jeg får, at det er u prikker w plus v prikker w. Og hvis vi har en skalar med, så bestemmer jeg selv, om jeg ganger skalaren på den første vektor, og så prikker bagefter. eller prikker sammen, og så ganger skalaeren på, eller om jeg ganger skalaeren på den sidste vektor, og så prikker bagefter. Det giver alt sammen det samme. Og så en sidste pæn egenskab her, det er, at vi har to vektorer, eller undskyld, den samme vektor prikket med sig selv. Det er altid noget, der er ikke negativt, og næsten lige så vigtigt er, at vi har ligheden, altså at u prik u. u er lige 0, hvis og kun hvis u er 0-vektoren. Så altså hvis jeg tager en vektor og prikker med sig selv, og vektoren ikke er 0-vektoren, så får jeg altid noget, der er positivt. Og det viser sig nemlig, at det her indre produkt, og i og med, at det har de her egenskaber, så er det faktisk det, der giver os mange af de geometriske ting, som vi gerne vil have. Den første, som vi gerne vil have, er det her med længder. Der er det så smart, at det her ender produkt. Det giver det faktisk mere eller mindre automatisk. Så vi siger, at når vi har en vektor v, så er dens længde defineret til at være kvadratråden af v prikket med v. Så jeg bruger de her to streger for at sige, at her er det en vektor, jeg tager længden af. Hvis nu jeg bare havde sat... Nogle steder vil jeg også se, at der bare står en streg på hver side. Men det her med at sætte de to streger, det er mere for at markere, at nu er det en vektor, jeg tager længden af, og det er ikke bare, at jeg tager numerisk værdi af et eller andet tal. Fordi det bruger man også nogle gange, hvis der bare står en enkelt streg. Så at den der, det betyder numerisk værdi af et tal. Og det er derfor, at jeg markerer, at nu er det en vektor, vi snakker om. Men altså, det er, at jeg tager vektoren og præger med sig selv. Og så tager jeg kvadratråden af det. Så her har jeg en vektor, og jeg vil finde dens længde. Men det jeg så skal gøre, det er, at jeg skal tage kvadratråden af vektoren prikket med sig selv. Så det vil sige, at det bliver den der prikket med sig selv, og ganget med sig selv. Så det bliver 1 i anden, plus 0 i anden, plus 1 i anden, plus 0 i anden. Så det vil sige, at det giver 2, og så skal jeg tage kvadratråden. Så det er... Sådan der. Så det er simpelthen bare, at jeg sætter alle elementerne derhenne og tager kvadratbrud. Og hvor kommer den derfra, kunne man måske spørge? Jamen det kommer sådan set bare af, hvad hedder det? Det er egentlig bare Pythagoras. Fordi hvis nu jeg har en vektor her. som jeg kalder xy. Så hvis jeg prøver at tegne den, så jeg tegner koordinaterne her, så har jeg, at jeg går x ud af x-aksen, og jeg går y op ad y-aksen. Og det her er en retvinklet trekant, så jeg ved, at længden af den heroppe, det vil være kvadratråden af x i anden plus y i anden. Men det der, det er jo lige præcis prikproduktet af den der, og så tag kvadratråden. Så derfor kan man sige, at den her definition, den udvider sådan set bare det, vi kender fra planet. Og man kan lave et tilsvarende argument i rummet, at der får vi også, hvad hedder det, man kan også bruge Pythagoras der og udregne en længde. Og det passer igen med, at det er, at vi tager en prik på produktet, og så tager vi kvadratråden af det. Hvis vi så har nogle vektorer, hvor længden er 1, så siger vi, at det er en enhedsvektor. Så altså, enhedsvektor, det betyder bare, at vi har længde 1. Så nu har jeg et eksempel, hvor jeg har en vektor, og jeg skal afgøre, om det er en enhedsvektor. Så det kan vi starte med at gøre. Så vi kigger, at længden af v, det er kvadratråden af. Vektoren prikker med sig selv, så det er 2 i anden plus 0 i anden plus 1 i anden. så det giver 4 plus 1, så det er kvart ud af 5, og vi kan sige, at det her er forskelligt fra 1, og derfor er v ikke en enhedsvektor. Så det er simpelthen bare, at vi tjekker, er længden 1? og det fandt vi ud af, at det var den ikke. Så det jeg så gerne vil nu, det er at nu har jeg fundet ud af, at det ikke gælder, så vil jeg finde en enhedsvektor med samme retning som v. Så for at finde enhedsvektoren, kan vi bare skalere med 1 over længden. Så det jeg egentlig siger nu, det er, at hvis nu jeg har en vektor, der har længde 3, så hvis jeg skalerer vektoren med en tredjedel, så gør jeg den også en tredjedel så lang. Og hvis den havde længde 3 til at starte med, så ganger vi det med en tredjedel, så får jeg noget, der er længde 1. Så jeg siger sådan lidt bare, at hvis jeg tager en vektor u, som jeg siger, det er... 1 over længden af v gange v, altså det bliver 1 over 45 gange 2 gange 1, det er en enhedsvektor i samme retning som v. Så jeg har bare taget og skaleret min vektor for at få noget af det her. længde i. Og når vi så kender længden af en vektor, så er det også ret naturligt at finde ud af, hvad betyder det, at afstanden mellem vektorer er. Så nu har jeg to vektorer u og v, og jeg vil godt på en eller anden måde definere, hvad skal afstanden mellem dem være, men man kan sige, at det giver mening, at jeg nu siger, at det er det der punkt, hvor den her vektor er, og så vil jeg godt ud til det der punkt. Så afstanden, det må være det stykke, der ligger her. Men nu kan jeg jo sige, at... Åh, jeg skal lige have slået den der lige linje fra. Og nu skal jeg tænke mig om, så det er den der plus den der, så vektoren må vende den vej. Altså den vektor der, kan jeg også skrive som u minus v. Og så er det i virkeligheden ikke helt korrekt, fordi... Nu har jeg tegnet den herude, men den starter i oreo, så den ligger i virkeligheden hernede, den her u minus v. Men det giver nogle gange mening, det der med at tænke, at den egentlig står derude mellem vektorerne. Også fordi vi så får, at hvis jeg gerne vil beskrive u, så er det det samme som v plus u minus v. Så altså det der minusvæg går ud med det v. Men det er den her, vi godt vil finde længden af, og det ved vi jo, at man gør nu. Så derfor definerer vi, at afstanden mellem de to vektorer u og v, det er, altså afstanden u til v, det er længden af vektoren u minus v. Og fordi vi har det her symmetri, så vi kan også have sagt v minus u, så vil vi få det samme. Så det kommer egentlig alt sammen bare af, at vi kan tage det ændre produkt af de her vektorer. Så det er sådan set det første punkt på vores to-do-liste, vi har klaret nu. Og jeg tror, det er et godt sted at tage den første pause. Så lad mig lige se, om jeg kan finde en pauseskærm frem til her. Den kommer her. Dans Hvad er det, du gør, når du er i en køkken? Hvad er det, du gør, når du er i en køkken? Hvad er det, du gør, når du er i en køkken? Danske tekster af Nicolai Winther Hvad er det, du gør, når du er i en køkken? Danske tekster af Nicolai Winther Godt, så er vi tilbage. Øhm, ja, og jeg havde fået tændt mikrofonen. Så der var et spørgsmål til den her. Og jeg tror måske det hjælper, at hvis nu jeg skriver, hvad prikproduktet er den der her. Så jeg har x, y prikket med sig selv. Det er, jeg tager de der to og prikker sammen, så det er x i anden. De der to og prikker sammen, så det er y i anden. Så altså, den der prikke med sig selv giver x i anden plus y i anden. Og hvis jeg så tager kvadratråden af det, så får jeg lige præcis det samme, som Pythagoras gav hernede. Så man kan sige, at den her, det er bare noget, sådan definerer vi, at det er. Så det er bare sådan, det er. Men vi kan så ligesom argumentere for, at det ikke er nogen dum definition, fordi den stemmer overens med det, vi egentlig forventer her i planet, og det vi kender fra tidligere, særligt i forhold til Pythagoras sætning. Så det er egentlig bare den motivation, jeg har forsøgt at forklare der. Godt. Så vi skal snakke om de her vinklerette vektorer. Så i stedet for at snakke om, at noget er vinklerette vektorer, så vil vi snakke om noget, der er ortogonalt. Og det her... Hvorfor snakker vi ikke om vingleider, men om ortogonale? Det er, at de her vektorrum, kan vi sådan set også snakke om noget, der ikke er vektor. De vil altid være vektorer, fordi de ligger i et vektorrum. Men ikke de her vektorer, som vi kender med søjlevektorer og rækkevektorer. Så man kan også snakke om f.eks. nogle bestemte typer af funktioner, at de danner et vektorrum. Og hvis vi fx har nogle funktioner, så er det lidt svært at sige, hvad er vinklen mellem to funktioner. Men man kan stadigvæk snakke om, om de her funktioner er ortogonale. Så derfor er det altså det, vi vil snakke om, fordi det ligesom leder bedre videre til nogle mere generelle konstruktioner i vektoren. Så vi siger, at to vektorer u og v er ortogonale, hvis deres indre produkt giver... 0. Og det viser sig faktisk, at når man skal op og generalisere det, så er det det samme, at man skal definere et indre produkt, og så de ortogonale, når nu deres indre produkt er 0. Så altså, ortogonalitet, det er bare indre produkt lige 0. Så nu har jeg to mektorer u og v, og så vil jeg godt tjekke, om de er ortogonale, og så skal jeg skætte til dem i et koordinatsystem. Så jeg prøver bare at tjekke, hvad sker der, hvis jeg nu tager... mine to vektorer og prik dem sammen, så får jeg 1 gange minus 1 plus 1 gange 1, så det er minus 1 plus 1, altså 0. Så prikproduktet mellem dem giver 0, og derfor er de over 2 grunnale. Og det vi egentlig gerne vil sige med de her med orthogonalitet, det er noget med egentlig at de er vinkelrette så stemmer det overens med hvordan de ser ud, når vi nu tegner dem i planet her så jeg har vektor 1,1 og jeg har vektor, altså den går 1 ud af x-aksen og 1 op af y-aksen, og så har jeg minus 1 ud af x-aksen og 1 op af y-aksen så det er der så har jeg 1, 1, og jeg har min minus 1, 1. Og der vil man tjekke, eller man vil kunne tjekke, at det passer med, at de også står vinkleret på hinanden. Så hvis vi snakker om vinklerettevektorer i planet eller rummet, så stemmer det også overens med, at de er sådan set vinklerette, hvis de er overtonale. Så vi indfanger det, vi lagde ud med, at vi godt ville, men vi får det på en lidt mere... Eller en lidt mere general måde. Så nu har jeg to vektorer her, u og v, og de ligger i R4. Så jeg kan ikke længere tegne dem, ligesom jeg kunne heroppe, men jeg kan stadigvæk afgøre, om de er ortogonale. Fordi jeg nu har sagt, at ortogonalitet er et rent algebraisk begreb. Så jeg prøver at kigge, hvad sker der, hvis jeg tager u og prikker den med v. Så får jeg 3x1 plus 2x0. Plus 0 gange minus 3, minus 4 gange minus 1, så det vil sige, at det giver 3 plus 4, altså det giver 7. Og derfor er vektorerne ikke ordentlige. Orto-go-nale. Så det er simpelthen bare at udegne et prikprodukt og se, giver det 0? For hvis det gør det, så er de ortogonale. Hvis det giver noget forskelligt for 0, så er de ikke ortogonale. Og så får vi sådan set også noget, man kunne kalde en Pythagoras-IRN, eller man kan sige det, der svarer til Pythagoras-sætning i højre dimensionelle vektorrum. Og den siger så, at... To vektorer u og v, de er autonale, hvis og kun hvis de opfylder, at længden af deres sum i anden er lige med længden af den ene vektor i anden, plus længden af den anden vektor i anden. Og det ligner jo ikke sådan måske super meget Pythagoras, sådan som den står der, men hvis nu man forestiller sig, at vi har de tre vektorer, og vi kigger på det plan, de ligger i, så får jeg lige netop at investere det u. og det her er v, og så har vektoren her, det er u plus v, så længden af den der i anden plus længden af den der i anden giver længden af den der i anden, så det vil sige, at det er lige netop Pythagoras, som vi kender den. Men her siger den altså, at de er autokonale, hvis og kun hvis den her Pythagoras-lignende ligning er opfyldt. Og beviset er sådan set ikke så svært, jeg vil ikke gennemgå det, men det er mere eller mindre bare at tage den her u plus v. Og så skriver det ud som skalarproduktet, fordi den her længde jo er defineret ved hjælp af skalarproduktet, så derfor kan jeg bare udregne den længde. Ja, og så viser det sig, at der kommer et ekstra led, medmindre de her to vektorer u og v er ortogonale. Godt. Så skal vi til et koncept, som måske er en lille smule abstrakt. Vi skal i hvert fald tænke os lidt om, fordi der er noget med nogle... Der er uendeligt mange vektorer i det, vi skal snakke om. Så vi tager w, det er en mængde af nogle vektorer i Rn, og det kan være, at der er uendeligt mange. Så det kan være, at w er et underrum, for eksempel. Så definerer vi den her mængde w-komplement til at være alle de vektorer z, der opfylder, at z prikket med w giver 0 for alle vektorerne i den her mængde w. Så altså... jeg siger, at en vektor ligger i komplementet, når nu, at den er ortogonal på alle vektorer i W. Og det her kalder jeg så det ortogonale komplement til W. Og man bruger det der tegn, fordi det bliver også brugt til at betyde vinkleret inden for nogle grene af geometri. Så man kan tænke, at den der, det der tegn, det betyder, at det er alt det, der står vinkleret på, eller mere generelt, det er det der. står ortogonalt på vores w. Så det er også det, der står her, at det ortogonale komplement er alle vektorer, der er ortogonale på samtlige vektorer i den oprindelige mængde. Så lad os prøve at se et eksempel. Så har jeg min mængde w, den består af de her to vektorer. Så vil komplementet til w, det er alle vektorer. v1, v2, v3, som opfylder, at hvis jeg tager min vektor v1, v2, v3 og prikker på den første vektor, så det vil sige, at jeg får 1 gange v1 plus 0 gange v2 plus 0 gange v3. Så altså, jeg har bare taget den her og prikket på der. Det giver 0, og det kan være, at jeg skal tage For at gøre det lidt mere tydeligt, at jeg så skal skrive ind, at hvis jeg kalder den her w1 og den her w2, altså det jeg har gjort her, det er at jeg har taget w1 og prikket med min v-vektor herovre, det skal give 0, og så skal jeg have w2 prikket med v, altså at jeg får 0v1 plus 2v2 plus 0v3, skal være lige med 0. Og det her med, at de skal være lige med 0, det er fordi, at jeg kræver, at v er orthogonal på både w1 og w2, for at den ligger i komplementet. Og hvis jeg så prøver at regne videre på dem her, så er den første ligning, der kommer bare til at stå, at v1 er lige 0. Og den anden ligning, der har jeg også bare 2v2 er lige 0, altså at v2 er lige 0. Så. Det vil sige, at det her ortogonale komplement er spændet af alle vektorer, hvor jeg har 0 på de første to indgange, og så har jeg et vilkårligt element nede i tredje indgang. Hvis man tænker på det geometrisk, så kunne vi forestille os, at vi har En W1 her, og vi har, nej jeg må hellere tegne den W1 og W2, de ligger hernede i et plan. Og det viser sig, at det der ligger i komplementet, det er egentlig det der, sådan en linje, der står vinkleret på mit plan her. Så det her er mit. W-komplement. Så, det er et spørgsmål om at løse et liningsystem for at finde ud af, hvad ligger i det her komplement. Nu var jeg så heldig, at jeg direkte fik, at de to engang skulle være 0, men generelt er det et spørgsmål om at finde et 0-rum. Så det her med at finde en parametrisk form og stille op osv. Nu prøver jeg så at sige, at nu tager jeg mit W her. som består af to vektorer, og så tager jeg spændet af det, så jeg nu får et underrum u. Og så spørger jeg mig selv nu, at nu har jeg en eller anden vektor z, som ligger i komplementet til de to vektorer heroppe. Ligger den så også i komplementet til hele underrummet? Altså, jeg har to vektorer, w1 og w2, og jeg ved, at min vektor z er optional på både w1 og w2. Men hvis jeg tager en vilkårlig anden vektor hernede i planeten, her, vil den så også være ortogonal på den. Så det er det, vi skal kigge på. Nu kan jeg se, at der var et spørgsmål. Så om komplementet er en delmængde, hvis betænkelsen er, at alle vektorer i komplementet er ortogonal på planen? Ja, lige præcis. Så det ortogonale komplement er, at vi tager alle de vektorer, som opfylder, at de er ortogonale på det plan, vi nu har valgt. Og heroppe har vi ikke Der er det ikke engang et underrum, vi har valgt, der er det bare en delmængde, og så siger vi, at det er ortogonale komplement, jamen det er så alle de vektorer, der er ortogonale på begge de her to. Og hernede siger vi nu, at nu har vi spændet af dem, så nu får vi hele det her underrum, og nu vil vi tjekke, at det her z, som er ortogonale på de to, er det så også ortogonale på hele underrummet, der er udspændt af de to vektorer. Det vi skal tænke, det er, at vi tager en vektor u, en vilkårlig vektor i det her underrum u, fordi hvis nu z skal ligge i komplementet til u, så skal z prikke med det her. Vilkårlig u skal være 0. Men hvis vores vektor u ligger i underrummet, så kan vi finde nogle skalarer c1 og c2, sådan at c1 gange w1 plus c2 gange w2 er lige med vores u. Fordi ellers ville den ikke ligge i spændet, hvis vi ikke kunne lave en lineær kombination af w1 og w2, så vi fik vores u. Så det her er per definition, at vi kan finde de her c1 og c2. Så får vi så, at hvis jeg tager z og prikker den på mit u, så er det z prikket med det her. Men det vi så med det indre produkt, det er, at jeg prikker jo sådan set ind i en parentes her, så jeg må prikke ind på hvert led, og så må jeg trække skalaret ud foran, så jeg får, at det er c1 gange z prik w1 plus c2 gange z prik w2. Øhm, og hvad kan jeg sige om det her? Jamen jeg ved, at mit z ligger i komplementet til w, det vil sige, at z er orthogonal på w1 og w2, så den her må være lige med 0, og den her må også være lige med 0, fordi det er lige præcis de to vektorer, z skal være orthogonal på, for at ligge i det orthogonale komplement her. Så, Det her må også give 0. Så z'u er lige med 0 for en vilkårlig vektor i u. Så jeg kunne have valgt det her u til hvad som helst i mit underrum. Så det betyder altså, at z ligger i komplementet til u. Så det der egentlig er, viser sig måske at være lidt overraskende her, og egentlig er meget praktisk, det er at mit u indeholder uendeligt mange vektorer, fordi det er hele planet her. Så det er uendeligt langt, så der er uendeligt mange vektorer i det her plan. Så principielt for at jeg kan vide om z ligger i komplementet til u, så skal jeg tjekke at z er orthogonal. på uendeligt mange vektorer i det her plan. Men det vi har set nu, det er, at det er faktisk nok, at jeg ved, at den er orthogonal på W1 og W2, som er de to vektorer, der udspænder det her plan. Og det viser sig, at det gælder også mere generelt, at en vektor ligger i komplementet til et eller andet underrum U, hvis og kun hvis z er orthogonal. på alle vektorer i en mængde af udspænder u. Så det her, en mængde af udspænder u, det kunne fx være en basis. Det må også godt være noget, der er større end basis, fordi jeg skal ikke bruge nødvendigvis, at det er linært uafhængigt, men hvis jeg har et underrum, og jeg har en basis, så for at finde... komplementer til mit underrum, så er det altså nok bare at tjekke orthogonalitet med basisvektorerne. Jeg behøver ikke at tjekke med uendeligt mange vektorer. Så det gør det lidt nemmere at håndtere. Og så kan vi sådan set også med de her orthogonale komplementer, der kan vi prøve at sige noget om de her, vi har snakket om nullrum før, og vi har snakket om søjlerum før, rækkerum har vi ikke rigtig snakket om, men Lidt ligesom at søjlerummet er spændet af søjlerne, så vil rækkerummet være det, vi får, hvis vi tager rækkerne i en matrix og opfatter dem som vektorer, og så tager spændet af dem. Så vi kan faktisk sige, at hvis vi tager fx 0-rummet, så er det det samme som at tage rækkerummet af matrisen og tage det ortogonale komplement af det. Søjlerummet, komplementet af det, det vil være 0-rummet for den. transponeret matrix. Og jeg vil bare vise den her, hvor den anden er egentlig tilsvarende. Så vi kigger på 0-rummet. Så 0-rummet per definition indeholder det, at de x, der opfylder at a gange x, er lige med 0. Så det er definitionen af 0-rummet, at det er de x, der opfylder den her ligning. Men det betyder jo, at når jeg tager mit x og prikker det med, første række i A, så får jeg 0. Når jeg prikker den med anden række i A, så får jeg 0, osv. Så jeg får 0, når x prikkes med rækkerne i A. Og de udspænder netop det her rækkerum. for vores matrix. Så nu har jeg, at x er ordronal på en mængde, der udspænder rækkerummet af. Det vil sige, at x er ordronal på alle vektorer i spændet af rækkerne, altså det her rækkerum. Så altså, dem der ligger i 0-rummet, det giver lige præcis dem der er autokonale på rækkerummet. Og så kan man sige tilsvarende for den anden derovre, hvor det også er noget med at kigge på 0-rummet af den her matrix, og så se, at det bliver lige præcis, at vi prikker med søjlerne i den oprindelige A. Så altså... Man kan sige, at det her med nullrummet især, det er noget, der er rent algebraisk, fordi det er, at vi siger, at det er løsningsmængden til en eller anden ligning. Men ved at vi har fået indført det her indre produkt og noget med ordentlig kriminalitet, så kan vi nu sige, at der er egentlig også en eller anden form for noget geometrisk i, at nullrummet er, at vi kigger på et eller andet underrum, defineret ved matrisen, og så tager vi det ordentlige komplement. Og det ordentlige komplement er, eller vi kan se det som en eller anden form for noget geometrisk, ligesom at den her, jeg tager mit plan her, og når jeg så snakker om det ordentlige komplement, jamen så er det noget geometrisk, der peger væk fra en plan, eller noget, der står vinkleret på, hvis vi skal holde os til nogle af de begreber, vi har brugt tidligere. Så vi får altså nogle nye begreber her, vi kan bruge, og vi kan... Kig på problemerne på en anden måde. Så snakker vi så nogle gange om det, man kalder en orthogonal mængde. Så jeg har en mængde af vektorer u1 op til vk, og så siger vi, at den er en orthogonal mængde, hvis det indre produkt mellem alle par af vektorer er lige med 0, så længe det er to forskellige vektorer, jeg tager. Så alt er alt. Alle de her vektorer, de er ortogonale på hinanden. Hvis vi så også har, at vektorerne har længde 1, så både at de er parvist ortogonale og at de har længde 1, så siger vi, at den er ortonormal. Så det er ortogonal, det er, at vi har brigtproduktet lige 0. Og når vi så siger ortonormal, så er det noget, der er ortogonalt plus Også noget, der er normaliseret. Så det her med normaliserede betyder, at vi har givet det længde i en. Så det er nogle tilfælde, hvor man særligt gerne vil have noget, der er enten ortogonal eller ortonormalt, fordi det gør nogle beregninger lettere. Så et eksempel her er, at standardbasen, som vi har set så mange gange før, den er ortonormal. Hvorfor det? Jamen vi har, at... Den her vektor hedder 1, 0, 0, 0, 0, 0. Den her hedder 0, 1, 0, 0, 0, 0, 0. Så hvis jeg tager dem og prikker sammen, så får jeg 1 gange 0, plus 0 gange 1, plus 0 gange 0, osv. Så det giver 0. Og sådan vil det være ligegyldigt, hvad for nogle jeg tager. Det betyder, at de er ortonale. Så for at vi får, at den er ortonormal, så skal jeg også tjekke længden. Men hvad er længden af den her? Det bliver en i anden. Plus 0 i anden, plus 0 i anden, og så videre. Altså det giver 1, og så skal jeg tage kvadratråden, og kvadratråden af 1, det er stadigvæk bare 1. Så det her, det er en ortonormal basis faktisk, men det er en ortonormal mængde. Og nu har jeg en anden mængde herhjemme, der består af 3 mektorer, og så skal jeg afgøre, om den enten er ortonormal, eller måske ingen af delene. Så vi ser, at... Hvad sker der, hvis jeg tager, og nu kalder jeg dem lige m1, m2 og m3. Hvis jeg tager m1 og prikker med m2, så får jeg 1 gange 0 plus 0 gange 1 plus 1 gange 0, det vil sige, at det giver 0. Så har jeg m1 prikket med m3, det er 1 gange minus 1, så det giver minus 1 plus 0 gange 0 plus 1 gange 1, altså minus 1 plus 1, så det giver også 0. Og så har jeg et m2 præget med m3, og det er den sidste kombination, jeg mangler. Så det er 0 gange minus 1 plus 1 gange 0 plus 0 gange 1. Det giver også 0. Så derfor er mængden orthogonal. Spørgsmålet er altså, om den også er ortonormal. Så det vil sige, at jeg skal... finde ud af, om længden af alle de her vektorer er 1. Men jeg kan sige, at den ikke er ortonormal. Så problemet er m1 og m3, men vi kan fx sige, at længden af m1 er kvadratruden af 1 i anden, plus 0 i anden, plus 1 i anden. Altså kvadratet 2, som ikke er det samme som 1. Så fordi der er mindst en af vektorerne, som ikke har længde 1, så er den ikke ortonormal. Men den er en ortogonal mængde, fordi de her vektorer er parvist ortogonale. Altså uanset hvad for et par vektorer jeg vælger, så når jeg prikker sammen, så får jeg 0. Nu skal jeg lige se med tiden. Jeg tror, vi skal tage det her med også. Så nu har jeg en orthogonal mængde, u1 op til uk, og jeg har antaget, at der ikke er nogen af de her vektorer, der er 0-vektoren. Så de er alle sammen forskellige fra 0, og jeg ved, at de er orthogonale. Kan jeg så også sige noget om, om de her vektorer er linert afhængige? Eller linært uafhængige. Jamen det jeg skal se på, hvis jeg skal afgøre, om de er linært uafhængige, det er, at jeg skal lave en linære kombination af dem, så jeg får 0-vektoren. Så nu forestiller jeg mig, at jeg har sådan en linære kombination. Så prikker jeg nu med den første vektor, u1, på begge sider af lighedstegnet. Det vil sige, at jeg får, at det er u1 prik 0. Så skal jeg prikke u1 på her, men igen. Jeg kan prikke ind på hvert led, og jeg kan trække skalaret ud foran. Så får jeg det er C1 gange U1 prik U1 plus C2. Det må jeg heller lige skrive lidt pænere. C2 U1 prik U2 plus osv. op til CK gange U1 prik UK. Så indtil videre har jeg bare brugt, at for sådan et indre produkt, der må jeg gange ind. på hvert led. Men hvad ved jeg? Jeg ved, at den mængde der har Den er orthogonal. Så det betyder, at hvis jeg kigger på U1 prikket med U2, så er U1 og U2 orthogonale. Det vil sige, at det her giver 0. Tilsvarende U1 prikket med UK er orthogonale. Så det her giver 0. Så alle de her andre led ender med at forsvinde. Så her kommer bare til at stå C1 U1 prik U1. Her over står der u1 prikket med 0-vektoren. Det kan være, at jeg skal sætte en streg på for at markere, at det er en vektor. Så det giver 0x1, plus 0x1, plus 0x1 osv. Så det her giver bare 0. Her er det altså 0 som tal, og ikke som vektor, fordi jeg har taget og prikket noget på. Så det er en skalaer, jeg har fået ud. Hvad kan jeg så sige om det her? Nu har jeg, at 0 skal være lige med produktet af to forskellige ting. Det betyder, at n... Enten så er C1 lige 0, eller også det her U1 prik U1 lige 0. Og egentlig, jeg kunne godt bare gå ind og bruge direkte egenskaben for de her indre produkter, at når jeg tager en vektor og prikker med sig selv, så hvis vektoren er forskellig fra 0-vektoren, så er det her altid positivt. Men det kan også være, at det er lettere at tænke på det som om, det kan være, at jeg skal skrive det med... En anden farve er, så det her er også det samme som C1 gange længden af U1 i anden. Så hvis nu, hvis den her længde i anden skulle være 0, jamen der er kun en vektor, der har længde 0, nemlig 0-vektoren. Så hvis det her er 0, så skal U1 være 0-vektoren, men det har vi antaget, at den ikke er, så der er ingen af dem, der er 0-vektoren. Det betyder, at C1 skal være 0. Så da u1 er forskellig fra 0-vektoren, så er u1'u1 større end 0. Det vil sige, at vores c1 her, den må være lige med 0, ellers så holder ligheden her ikke. Heroppe kan vi nu fjerne det her led, fordi C1 er 0, og så får vi en tilsvarende ligning, hvor det kun er U2 op til UK, der indgår. Så kunne jeg lave samme trick for U2 op til UK. Så er jeg nu bagefter og siger, at nu prikker jeg U2 på, på begge sider. Så vil jeg finde ud af, at C2 skal være lige med 0. så videre op til ck, at den skal også være lige med 0, så jeg kan faktisk vide nu, at alle mine c'er skal være lige med 0, for at den her ligning er opfyldt. Så vi ved, at når jeg har den her ligning, og den eneste mulighed er, at alle vægtene er 0, det betyder, at vores vektorer er linært uafhængige. Så altså, hvis jeg har en mængde, der er orthogonal, så betyder det automatisk, at den også er Lineær uafhængighed. Og nogle af jer vil måske huske det her med, at jeg nogle gange har sagt det her med, at når vi snakker linær uafhængighed, så betyder det, at vektorerne peger i forskellige retninger. Det er sådan den meget løse måde at tænke på, hvad betyder linær uafhængighed, det er, at vektorerne peger i forskellige retninger. Det her er noget, når vi så snakker orthogonalitet. Så betyder det, at vektorerne ikke bare peger i forskellige retninger, men de peger i så forskellige retninger som overhovedet muligt. Så det er den strengeste udgave af linær uafhængighed, kan man tænke det som. Det er ikke nok med, at det skal pege i forskellige retninger, men det skal være så meget i forskellige retninger som overhovedet muligt. Og jeg tror, at det her er et godt sted at holde den. Næste pause, så den får I her. Hvad er det, du gør, når du er i Det er en god fornøjelse at have en køkken på. Hvad er det, du gør, når du er i en køkken? Hvad er det, du gør, når du er i en køkken? Hvad er det, du gør, når du er i en køkken? Hvad er det, du gør, når du er i en køkken? Hvad er det, du gør, når du er i en køkken? Hvad er det, du gør, når du er i en køkken? Godt Lad os gå i gang igen Så altså en orthogonal mængde det er en mængde hvor vektorerne de er Jeg skal lige tjekke at jeg fik sådan noget en orthogonal mængde det er en mængde hvor vektorerne de har vist orthogonal Mængde Og det viser sig, at hvis vi har sådan en mængde, hvor vi har sørget for, at der ikke er nogen af vektoren, der er 0-vektoren, så vil den automatisk være linært uafhængig. Så når vi har noget, der er linært uafhængigt, så er vi næsten over i, at vi har en basis. Så når vi har en basis, som er enten en ortogonal eller en ortonormal mængde, så siger vi, at det er en ortogonal eller ortonormal basis. Så altså vil vi ligesom sige, at det er sådan en ekstra egenskab i en basis, den kan have, at den mængde, der udgør basen, enten er ortogonal eller ortonormal. Og så påstår jeg, at den her m, vi har set tidligere, at det er en ortogonal basis for R3. Hvorfor ved vi det? Så vi ved, at vektorerne er ortogonale, fordi det tjekkede vi. tidligere. Så nu har jeg en orthogonal mængde, men det betyder altså også, der er de også linært uafhængige, fordi det er det, vi lige har set. Det vil så sige, at m er tre linært uafhængige vektorer i R3. Hvis jeg har tre linært uafhængige vektorer i R3, så har jeg tre retninger, og jeg skal udspænde tre retninger, så har jeg lige præcis en basis. Derfor er de en basis for R3. Og man kunne også sige, at fordi de ligner et uafhængigt, så er de en basis for et eller andet underrum. Og det er et underrum af R3, fordi vektorerne ligger i R3. Det underrum, de udspænder, er noget tredimensionelt, men fordi hele rummet er tredimensionelt, så må underrummet netop være hele rummet. Så de er altså en basis for R3. og de er en ortogonal basis, fordi vektorerne er ortogonale. Hvis så vi går lidt videre og siger, at nu vil jeg ikke bare have en ortogonal basis, men jeg vil have en ortonormal basis, så det er med, at de også skal have længde 1. Hvad gør jeg så? Jeg skal egentlig bare sørge for at normere dem. Så da m allerede er orthogonal, skal vi bare normere. Det må jeg allerede lige skrive, så man kan læse det. Så jeg siger nu, at nu tager jeg en vektor b1, en vektor b2 og en vektor b3. hvor jeg siger, at den første vektor er min m1 over længden af m1. Eller måske skal jeg skrive det. Så det er nok bedre at netop sige, at det er en skalar, jeg ganger med min vektor. Så hvad er længden af m1? Det er kvadraten uden at en i anden. Plus 1 i anden, så er det altså kvadrat uden 2, gange min m1. Så tager jeg b2, det er, at jeg tager 1 over længden af m2, gange med m2. Hvad er længden af den her? Det er kvadrat uden af 0 i anden, plus 1 i anden, plus 0 i anden, så er det altså kvadrat uden af 1. Så det bliver bare m selv. Og så tager jeg min b3, så det er længden af m3, som så er den der vektor, gange m3. Og igen får jeg, at det bliver så minus 1 i anden plus 0 plus 1 i anden, altså at det er kvadratrådet 2 gange minus 1, 0, 1. Og så vil jeg få, at den her basis b... som er B1, B2, B3. Det er en ortonormal basis for R3. Så i og med, at jeg allerede har en ortonormal basis, så er det nemt at finde den ortonormal basis, fordi det bare er et spørgsmål om at gå igennem og skalere hver vektor, så den forlængte en. Så det er ikke så voldsomt besværligt. Men hvorfor kunne jeg tænke mig at finde sådan en ortonormal basis? Så det vi bruger vores basis til, det er, at vi har et underrum, og så vil vi beskrive de vektorer, der ligger i underrummet ved hjælp af vores basis. Så altså, hvis jeg har et underrum W, og jeg har valgt en basis B, så når jeg tager en vektor i mit underrum W, Så skal jeg finde det her vægt, c1 op til ck, sådan at jeg får w beskrevet som en linær kombination af mine basisvektorer. Og det vi tidligere har gjort, det er, at så kan vi skrive det her op som et lignesystem, fordi jeg kan sætte b1, b2 op til bk ind som søjler i koefficientmatrisen, og så sætte w ind på højre siden, og så kan jeg række reducere, ligesom vi har gjort så mange gange tidligere. Men hvis nu... Den her basis, vi kigger på, at den er enten ortogonal eller ortonormal, så behøver vi faktisk ikke at gå ud og lave rækkeoperationer, fordi vi så bare kan bruge de her indre produkter, som vi nu har lært. Nemlig, at hvis jeg har mit underrum W, og jeg har valgt min basis B1 op til BK for mit underrum, så gælder det, at når jeg tager en vægter i underrummet og skal udtrykke dem som en dinære kombination, så vil vægten CI, altså den, der hører til den i det basisvektor, den vil have givet ved w'bi over bi' med sig selv. Så altså, at de her vægte finder jeg bare ved at udregne to prikprodukter, i stedet for at jeg skal ud og udregne, eller jeg skal opskille en totalmatrix og række reducere osv. Så det er et spørgsmål at udregne to prikprodukter. Og bemærk så, at hvis den ikke bare er... Og jeg skulle måske nævne heroppe, at det er vigtigt, at den basis, vi har, er en ortogonal basis. Ellers gælder det her ikke. Hvis den så er ortonormal, altså vi har den her ekstra betingelse med, at længden er 1, så kan vi jo se, at vi får W'Bi over det der. Det er jo det samme som længden af... B.I. i anden. Så hvis den er ortonormal, den her mængde, så vil den her længde være 1. Altså at i stedet for, at vi skal udregne to prikprodukter, så kan vi nøjes med bare at udregne ét prikprodukt, når den er ortonormal. Så det er altså en af grundene til, at det kan være smart at vælge sådan en ortonormal basis. Simpelthen fordi det er nemt at udtrykke alle vektorer i vores underrum. De er lettere at udtrykke som en linear kondition af basisvektorerne. Og tilsvarende er det jo så nemt at finde koordinatvektoren, fordi det bare er de der vægte, som nu er givet ved det her. Så nu har jeg et eksempel her, at jeg har den basis fra før, og så vil jeg udtrykke v i den her basis. Jamen det jeg så skal, det er, at jeg skal sige, at c1 er lige med v prikket med Vi kan lave en B1, B2, B3. Så V, den jeg godt vil udtrykke, præger med B1 over B1 præget med sig selv. Så måske skal vi sige, at B er orthogonal, fordi ellers kunne vi ikke bruge sætningen. Men den har vi tjekket tidligere, at den er en orthogonal basis. Hvad bliver det så? Det bliver 1 gange 1 plus 4 gange 0 plus 3 gange 1 over den der prikke med sig selv. Så det er 1 i anden plus 0 i anden plus 1 i anden. Og så skal jeg lige huske... Ej, jeg har skrevet C1, så det er godt nok. Så det er 1 plus 3, så det er 4 over 2. Altså at den giver 2. C2, det er, at jeg tager v og prikker på b2, og b2 prikker med sig selv. Så det er 1 gange 0 plus 4 gange 1 plus 3 gange 0 over den der vektor prikket med sig selv. 0 i anden plus 1 i anden plus 0 i anden. Så det giver 4 over 1. 4. Og C3, det er så, at jeg tager V'B3 over P3'B3. Så jeg får 1 gange minus 1 plus 4 gange 0 plus 3 gange 1 over længden af den der vektor i anden. Så altså, det vækter en prikke med sig selv, plus 1 i anden. Så her får jeg minus 1 plus 3, så det giver 2. Og hernede står der også 2, så det giver 1. Så nu har jeg fundet mine konditioner, så jeg nu kan sige, at min v, den kan jeg skrive som 2 gange b1 plus 4 gange b2 plus 1 gange... b3. Og jeg kunne også sige, hvis jeg ville det, at koordinatvektoren for v med hensyn til b, den er lige præcis 2, 4 og 1, som er de der, hvad hedder det, det er de vægte, jeg har regnet ud på den her måde. Så i stedet for, at jeg skulle ud og opskrive et ligningssystem, arh, lige her tror jeg ikke, det er så slemt, fordi vektorerne er ret pæne, men i stedet for, at jeg skal opskrive et totalt matrix og løse et ligningssystem osv., Så er det et spørgsmål om, at det udregner nogle prikprodukter, og så finder jeg mine koefficienter på den måde. Så altså, jeg har fået udtrykket min vektor i min basis på den her måde. Så hvis nu vi har en kvadratisk matrix, og søjlerne er en ortonormal basis, så siger vi, at det her er en... en ortogonalmatrix. Så altså, det er, at søjlerne er parvist ortogonale. Hvis vi har sådan en matriks, så vil det gælde for alle mulige vektorer x og y, at når vi bruger u på en vektor, så bevarer vi længden af den, altså at u gange x, længden af det, det er det samme som længden af den vektor, vi startede med. Hvis vi bruger u på vores vektorer x og y, Og vi prikker sammen, så får vi det samme prikprodukt, som vi fik tidligere. Og dermed også, at hvis vi tager... Hvad hedder det? Det ender på lukket mellem de her billeder, så giver det 0, hvis og kun hvis de oprindelige vektorer også var 0. Og så den sidste her, det er, at hvis vi har sådan en netop kvadratisk matrix med søjler, der er ortonormale, det er det, der er lidt... det skal man lige vende sig til, at når man ser en ortogonal matrix, så betyder det ikke bare, at søjlerne er ortogonale, men at de er ortonormale. Så man burde måske ikke kalde det en ortonormal matrix, men det gør man altså ikke, man kalder det bare en orthogonal matrix. Så hvis vi har sådan en, så vil den inverse matrix være givet ved den transponerede. Så igen, i stedet for at vi skal ud, vi havde det der med, at vi kunne skrive op med, at vi havde en matrix af, og så satte vi identiteten ind ved siden af, og så kunne vi rejse og reducere og på den måde finde den inverse. Hvis vi ved, at vores matrix er orthogonal, så kan vi altså nøjes med bare at transponere den. Og så på den måde finder vi den inverse. Og det er noget nemmere, end at skal ud og række op og se, at den er en stor matrix. Og faktisk, de tre første punkter her, de gælder også, hvis u er en matrix med ortonormale søjler. Så altså, hvis det er en matrix, der har flere rækker, end den har søjler, og de søjler er ortonormale, så gælder de tre første betingelser også. Den sidste kan ikke gælde, fordi i det tilfælde kan vi ikke snakke om den inverse. Men det, det her betyder, hvis vi skal sætte ord på det, det er, at hvis vi har en afbildning, hvor standardmatrisen er en orthogonal matrix, så vil det være de afbildninger, der bevarer længder og vinkler og orthogonalitet. Så der kan godt være nogle steder, hvor man er interesseret i netop at bevare de her ting. Særligt noget med... Hvis man skal lave et kort, for eksempel, så er man interesseret i, at længder og vinkler bliver bevaret, når man laver en anden transformation af det her kort. Og det er altså de her ortogonale matriser, man skal bruge til det. Så det var punkt nummer to. Det her med vinkler og andre vektorer, der fandt vi ud af, at det måske i virkeligheden var ortogonale vektorer, vi skulle snakke om. Så den sidste del, vi mangler, det er det her med at finde afstanden fra en vektor. til en linje. Så det kommer egentlig af, at næste gang skal vi se på det her med den korteste afstand fra en vektor ned til et vilkårligt underrum. Men som sagt, så starter vi lige med at varme op her og se, hvad nu hvis underrummet det bare er en enkelt, eller ja, så det er en linje i stedet for et eller andet mere generelt. Jamen det vi så skal, det er, at vi skal sige, jeg starter ude fra min y, og så skal jeg finde ned til linjen her. Og jeg skal finde den korteste afstand. Men det betyder jo så, at hvis jeg går tættere og tættere på her, så bliver vores længde mindre. Og den bliver mindre og mindre, indtil på et tidspunkt, så begynder den at blive længere igen. Og hvis man tænker lidt over det, så vil man komme frem til, at det der intuitivt i hvert fald skulle give mening, det er, at vi får lavet sådan en ret vinkel her. Så altså, vi skal have... Jeg vil sige, hvis nu jeg skriver her, at den her kalder jeg y hat. Jeg skal have noget, der ligger nede på linjen, som er den her y hat. Og så skal jeg have noget, jeg tror nok jeg kalder den z senere, som er en vektor, der står ortogonal på mit u. Og så får jeg, at min y er lige med y hat plus z. Så jeg vil have noget, at den her længde skal gå ortogonal ned på min linje, for at jeg får den korteste. Det er i hvert fald vores intuition her. Så vi vil gerne have en opsplitning, hvor et y kan skrives som y hat plus z, hvor den her y hat er den ortogonale projektion ned på linjen. Så altså jeg tager netop det her med mit y og siger, hvad sker der, hvis jeg sender den ortogonale ned? Så får jeg den her y hat ud. Og hvordan finder vi sådan en ortogonale projektion? Den her u overfor tegningen, jeg har en vektor u, Og det er den, der udspænder linjen, jeg projicerer ned på. Den her u, det er jo netop en orthogonal basis for den her linje. Så den er orthogonal, fordi jeg har kun én vektor. Så hvis jeg tager parvise produkter med vektorer, som ikke er ens, så er der ingen af de produkter, der skal opfylde noget. Så den er orthogonal, og det er en orthogonal basis for den her linje. Hvis jeg så forestiller mig, at nu kan jeg... Jeg udvider min basis til de basisvektorer, jeg mangler, så jeg tilføjer b1 op til bn-1, så jeg får en basis for hele r'en. Jamen, så får jeg en orthogonal basis her, og det betyder, at når jeg vil udtrykke mit y ved hjælp af den her basis, så får jeg, at det er y'u over u'u, så det er koefficienten, og den skal ganges på u plus y'. B1 over B1 prik B1, og den skal ganges på vektor B1, og så videre op til y prik Bn-1 over Bn-1 prik Bn-1. Så det er igen koefficienten, og så skal den ganges på min basisvektor her. Så jeg forestiller mig, at jeg har taget min basis for linjen, så har jeg udvidet den til hele rummet, og så udtrykker jeg y. i den basis. Men så kan jeg jo se, at den her del, den har noget med linjen at gøre, fordi det er der, hvor jeg har mit u. Alt det her b1 op til bn-1, det ligger uden for linjen, fordi... særligt de her beta op til bn-1, de er ortogonale på u. Så det her, det ligger på linjen, og alt det her ligger uden for linjen. Så et ret godt bud på, hvad den her ortogonale projektion skulle være, det er, jamen lad os da bare tage det her, der ligger på linjen, og så smid alt det, der ligger uden for, væk. Så et bud vil være, at det er det der, vi skal kigge på. Og det viser sig, at... Nu må jeg ellers skrive det igen, så det er y'u over u'u gange med u. Og det viser sig lige præcis, at det her er faktisk projektionen. Altså det er den vektor nede på linjen, som er tættest på vores vektor y. Så det betyder så også, at hvis jeg vil finde afstanden fra y nede til linjen, så vil det være, at jeg tager længden af y minus dens projektion. Så altså jeg siger herovre, at jeg tager y, og så trækker jeg den her projektion y' fra, for så får jeg lige præcis den der vektor, og hvis jeg tager længden af den, så må det være afstanden fra y ned til linjen. Så her er et eksempel, at jeg har en linje, og det er 4 nu, så det er ikke bare der, hvor jeg kan tegne det, og jeg kan ikke argumentere udenop. og bruge noget algebra her. Så linjen er udspændt af den her vektor u, og så har jeg en vektor y, og jeg vil finde den vektor nede i linjen, som ligger tættest på det her y. Og så vil jeg finde afstanden mellem dem. Så den her y hat, som er projektionen, altså den, der ligger tættest på, den er givet ved, at jeg tager y' med u over u' med u, og så skal jeg gange den med u. Så altså y'u, det vil sige, at det giver 4 gange 2 minus 2 gange 0 plus 0 gange 2 plus 10 gange 1 over, så skal jeg prække u med sig selv, så det giver 2 i anden plus 0 i anden plus 2 i anden plus 1 i anden, så det giver 8 plus 10, så det er 18. Her får jeg 4 plus 4 plus 1, så det er 9. Det vil sige, at det giver... Åh, jeg mangler lige her en vægt til u, skal der ganges på. Jeg flytter lige det her lidt. Jeg tager også lige og flytter det der lidt. Så jeg har plads til mine u'er. U og u. 2 u, hvordan ser den ud? Det er... 4, 0, 4, 2. Så det her, det er den vektor i L, som er tættest på vores vektor y. Så lad os bare udregne de her indre produkter. Igen, fordi jeg... Øhm, jeg har et u derinde. Ortogranel basis for linjen. Så skal jeg finde ud af, hvad er afstanden mellem y og linjen. Det er så, at jeg prøver at kigge på. Så afstanden er, at jeg tager mit y hat minus y. Eller hvis nu jeg skulle holde det til det, jeg gjorde før, der tror jeg, at jeg skrev y minus y hat. Det giver ikke nogen forskel, fordi det er bare et spørgsmål om, at jeg vender. vektoren om, men længden bliver ved med at være det samme uanset om det er y hat minus y eller y minus y hat så tager jeg længden af at jeg tager 4 minus 2 0, 10 minus 4, 0 4, 2 så det vil sige det er længden af en vektor som hedder 0 minus 2 minus 4 øh, 8 Ikke, det er ikke rigtigt nok. Det tror jeg, det er. Ellers så må vi se, når jeg får længden til sidst, om det giver noget, der giver mening. Så længden her, det er kvadratråden af, at jeg tager alle dem her og sætter i anden. Så det er 0 i anden plus minus 2 i anden plus minus 4 i anden plus 8 i anden. Så det giver 4 plus 16. det er 20 plus 64, så det giver kvadratråden af 84. Og den her kan jeg gøre lidt pænere, og det plejer at være sådan noget, som der ikke er ret mange, der måske har set før. Så jeg siger, 84 er det samme som 4 gange 21, altså så jeg sådan set prøver at faktorisere det her, eller jeg prøver at finde en faktor i det her. så jeg kan skrive det som 4x21, så må jeg splitte op i, at det er, altså kvadratruden det er, kvadratruden er 4x21, så det er kvadratruden 4x21, og kvadratruden 4 det er det samme som 2, så længden her bliver 2 kvadratruden 21. Og det var vist også det, jeg havde regnet ud på forhånd, så det ser ud til, at det er, at jeg har regnet rigtigt. Men det vi gør her, det er, at vi har en vektor, som udspænder vores linje, og så har vi den vektor, som vi godt vil finde afstanden ned til linjen, eller hvor vi godt vil finde afstanden ned til linjen. Så det vi gør, det er, at vi tager vores y, projicerer den ned på linjen, og det gør vi ved at udregne nogle prægprodukter. Når vi så har fundet projektionen, Altså den linje nede i L, som ligger tættest på Y, så kan vi bare tage de to og trække dem fra hinanden og finde længden. Og dermed har vi afstanden fra vektoren til linjen. Og det betyder så, at vi også har krydset det sidste punkt af på vores to-do-liste for i dag. Så det var det, jeg skulle nå at gennemgå. Men for at I lige har tid til at stille spørgsmål her til den sidste del, så får I lige et øjeblik. til at stille dem, og så skal jeg nok samle op, hvis der er noget. Så I får lige en pauseskærm et øjeblik mere. Så der kom ikke flere spørgsmål. Så er det simpelthen bare opgaveregning, ligesom vi plejer. Og uanset hvor I sidder henne, så skulle der gerne komme en hjælpelærer rundt. Og jeg kommer også rundt til nogle af jer. Dem er jeg kan nå. Så opgaveregning. Opgavene ligger på mul.