Meine Damen und Herren, ich begrüße Sie sehr herzlich nach den Semesterferien. Ich freue mich, dass Sie gleich am 1. März so zahlreich wieder hier erschienen sind. Ich habe mir das vorgenommen, gleich am 1. März zu beginnen, weil wir uns doch einen ziemlichen Stoff für das Sommersemester vorgenommen haben und ich möchte nicht irgendwie zeitlich in Bedrängnis kommen.
Zeit soll sein, dass wir die Dinge alle gut... besprechen können. Sie haben ja schon einigermaßen einen Einblick in die Tensorrechnung erhalten und wobei wir jetzt am Schluss dann, also vor Beginn der Semesterferien waren, war, dass wir von einzelnen Vektoren zu Vektorfeldern übergegangen sind und dann im Zusammenhang damit dann zu den entsprechenden Integralen, Kurvenintegralen, Flächenintegralen und Volumensintegralen. Diesen Abschnitt haben wir schon zu Ende geführt im Jännern. Und diese Integrale spielen in der Physik eine wesentliche Rolle.
Vielen Dank. Daher ist es auch wichtig, dass man sie relativ leicht berechnen kann. Da zeigt sich, dass es unter gewissen Voraussetzungen Vereinfachungsmöglichkeiten gibt, aufgrund der berühmten Integralsätze. Da gibt es den Ihnen sicher allen schon bekannten Gauss'schen Integralsatz und den Stokes'schen Integralsatz.
Diese Integralsätze haben alle gemeinsam, dass es dadurch ermöglicht, wird. Die Anzahl der Integrationen um 1 zu reduzieren, also aus einem Volumensintegral wieder ein Oberflächenintegral, aus einem Oberflächenintegral lässt sich zurückführen auf ein Kurvenintegral und ein Kurvenintegral, bei dem kann man sich die Integration dann letztlich ganz ersparen sozusagen. Jetzt wird man sich denken, wunderbar, das kann man also machen und sehr schön, aber das geht natürlich nicht immer, sondern da müssen wir...
wieder irgendwelche Voraussetzungen dazu erfüllt sein und das ist aber für die physikalische Anwendung von großer Bedeutung. Deswegen ist es wichtig, dass wir diese Dinge gut besprechen. Und jetzt werden Sie sich vielleicht fragen, wie hängt das alles mit der Vektor-und Tensorrechnung zusammen? Wie Sie gleich anschließend sehen werden, sehr intensiv.
Denn diese Kurvenintegrale, Flächenintegrale und auch Volumensintegrale sind sind also zumeist Integrale über Vektorfelder oder über Skalarefelder. Das heißt, diese Vektoren und die Skalare spielen hier wieder eine sehr große Rolle. Aber es zeigt sich insbesondere, dass es bei diesen Integralsätzen dann darauf ankommt, dass man diese Vektoren oder Skalare differenziert. Und damit man da einen guten Ausgangspunkt hat, hat, werde ich jetzt am Anfang noch einmal beginnen bei dem Kapitel, das wir bereits vor den Semesterferien begonnen haben. Ich werde es noch einmal wiederholen und zwar das Kapitel 13, Vektoranalysis in kathesischen Koordinaten.
Das sind zwei Punkte gleich wichtig, die ich hier erwähnen möchte. Einerseits spreche ich hier von Koordinaten, während wir bisher ja bei den Vektoren und Tensoren immer über Komponenten gesprochen haben. Komponenten von Vektoren in Bezug auf einen entsprechenden Satz von Basisvektoren.
Hier Koordinaten. Und dann speziell kathesische Koordinaten. Also solche, wo die Koordinatenachsen alle geradlinig sind und paarweise aufeinander senkrecht stehen. Das, was man aus der Schule kennt.
die mit denen man besonders bequem umgehen kann, wenn man also eben in diese Dinge neu eingeführt wird. Und insbesondere auf diesen Punkt, dass wir hier kathesische Katenaten verwenden wollen, möchte ich besonders hinweisen, weil das dann bei der physikalischen Anwendung oft ein großes Hindernis ist. Bei vielen Anwendungsfällen, insbesondere wenn man zum Beispiel ein kugelsymmetrisches Problem hat, Wie die Planetenbewegung rund um die Sonne.
Da ist das Kraftfeld in der Umgebung der Sonne kugelsymmetrisch. Da ist man nicht gut beraten mit kathesischen Koordinaten vorzugehen. Da sind Kugelkoordinaten besonders nützlich und man kann das Problem gar nicht so richtig übersichtlich lösen ohne auf Kugelkoordinaten überzugehen.
Das geht dann mit dem was ich Ihnen jetzt hier zeigen werde so unmittelbar nicht. Und das ist der Grund, warum ich mit Ihnen dann anschließend an diese Dinge hier zu krummlinigen Koordinaten übergehen möchte. Nicht, weil das halt nur so besonders lustig ist, sondern weil das in der physikalischen Anwendungspraxis von großer praktischer Bedeutung ist.
Insbesondere eben Kugelkoordinaten für kurvsymmetrische Probleme, Zylinderkoordinaten für zylindersymmetrische Probleme. Und wenn ich das auch bei der Gelegenheit gleich sagen darf, Natürlich ist dann die Beschäftigung mit Vektor-oder Tensorfeldern in krummlinigen Koordinatensystemen auch ein wesentlicher Ausgangspunkt dafür, dass man die allgemeine einsteinische Relativitätstheorie besser verstehen lernt, zumindest einige Grundelemente, einige Werkzeuge jetzt kennenlernen wird, also in den kommenden Monaten bis zum Juni, sodass Sie dann sehen, wie diese Theorie auf der Basis der Tensorrechnung in krummligen Koordinaten aufgebaut ist. Sie werden sehen, dass das gar nicht so kompliziert ist. Aber ein bisschen zuhören und ein bisschen mittun muss man natürlich. Und ich sage das jetzt wieder einmal zum x-ten Mal, wenn ich irgendwas dann jetzt einmal so erklären werde, dass das undurchsichtig ist, dann melden Sie sich natürlich.
Und sagen Sie mir... dass jetzt etwas unklar ist und dass man etwas noch einmal erklären möchte. Ich möchte keinesfalls so einige Kolleginnen und Kollegen von Ihnen so quasi am Weg verlieren. Das ist überhaupt nicht notwendig. Wenn irgendetwas unklar ist, lösen wir das und dann geht das wieder wunderbar weiter.
Also der Punkt, der jetzt bei der Vektoranalysis neu ist gegenüber der Vektor-und Tensorrechnung, die wir vorher hatten, ist, dass wir uns nicht mehr nur auf einen Punkt und ein dort befindliches Basisvektorsystem und dort befindliche Vektoren uns beziehen, sondern wir können uns an beliebige Punkte im Raum setzen und jedem Punkt ist dann ein entsprechender Skalar oder Vektor oder auch Tensor zugeordnet, so dass diese Tensoren 0.1. und 2. Stufe Funktionen der Koordinaten der Punkte im betrachteten Raum sind. Also einerseits haben die Tensoren, Skalare, Vektoren an jedem Punkt im Raum entsprechende Komponenten.
Das kann sich auch ändern. Denken Sie zum Beispiel an ein Vektorfeld in einem Strömungsfeld, wo das Vektorfeld dann das Geschwindigkeitsfeld in dieser Strömung ist. Da wird es an verschiedenen Punkten verschiedene Schirmungsgeschwindigkeiten geben, klarerweise. Und die Punkte selbst werden dann durch deren Koordinaten beschrieben.
Und da wollen wir uns jetzt auf kathesische Koordinaten beschränken. Und die kennen Sie schon gut. Da gibt es einen Ursprung, da gibt es X1, X2, X3-Achse.
Und mit den drei Koordinaten X1, X2, X3 oder allgemein XI wird der jeweilige Punkt festgelegt im Raum. Und... Und dann wird der an dem Punkt dort vorhandene Vektor zum Beispiel als Funktion dieses Ortspunktes gegeben.
Das heißt, jede Komponente dieses Vektors an dieser Stelle ist dann wieder abhängig von den drei Koordinaten x1, x2, x3. Also wenn man zum Beispiel einen Skalar hat, bei einem Skalar Lambda, Dann ist das ein Skalar, der abhängig ist von x1, x2 und x3. Wenn Sie einen Vektor v-Pfeil haben, Dann ist das Vektor V-Pfeil auch abhängig von X1, X2 und X3.
Aber diesen Vektor V-Pfeil, den schreiben wir in Indizes mit Komponenten VI. Und diese VI sind dann ihrerseits abhängig von X1, X2, X3 oder allgemein natürlich von in einem n-dimensionalen Raum von xi von 1 bis n. Also der Vektor hat Komponenten und jede Komponente ist wieder abhängig von den Ortskoordinaten. Ein Skalarer hat natürlich keine Komponenten, sondern ist einfach nur eine Zahl, die ihrerseits auch wieder abhängig ist von den Ortskoordinaten. Das ist also die entscheidende Grundvoraussetzung.
Jetzt fragen Sie sich vielleicht, warum müssen wir uns hier also auf kathesische Koordinaten beschränken? Zum jetzigen Zeitpunkt ist das günstig, weil dadurch eine wichtige Sache gegeben ist, und zwar, dass die jeweilige Vektorbasis, also die Basisvektoren, auf die man sich bezieht, wenn man so einen Vektor betrachtet, diese Basisvektoren sind dann autonomiert an jedem Punkt, sodass sie an jedem Punkt praktisch gleich sind. Dieses Basisvektorsystem E1, E2, E3 in einem bestimmten Punkt wird so bleiben, wie es ist und sich parallel verschieben zu anderen Punkten im Raum.
Und wo man jeweils ist, wird der dortige Vektor dann sich auf diese drei Basisvektoren beziehen. Im allgemeinen Fall, und der wird uns dann in weiterer Folge, im jetzt kommenden Sommersemester beschäftigen, wird dann dieses Basisvektorsystem selbst abhängig werden von dem Ort, wo man sich befindet. Das macht die Geschichte ein bisschen interessanter.
Und das wollen wir aber nicht jetzt gleich am Anfang machen, sondern hier beschränken wir uns jetzt bewusst auf kathesische Koordinaten, damit man einmal einige wichtige Eigenschaften... dieser Differenziation, die wir jetzt durchführen werden, zu uns klar machen können, ohne dass wir schon berücksichtigen müssen, dass sich die Basisvektoren selbst auch ändern können, wenn man von einem Punkt auf einen anderen im Raum übergeht. Das tun wir aber hier noch nicht. Wir werden die Basisvektoren nicht verändern, sondern konstant halten. Und unter dieser einfachen Voraussetzung Wollen wir jetzt einmal noch rekapitulieren, was für verschiedene Differenzierungen wir durchführen.
Differenzialoperatoren werden wir hier definieren in diesem Kapitel Vektoranalysis. Und der zentrale Differenzialoperator, den wir hier verwenden werden, den definieren wir uns am Anfang, den Nabla-Operator. Nachdem wir hier nur kathesische Koordinaten betrachten und im Zusammenhang damit stets nur ein orthonormiertes Basisvektorsystem, wo die Basisvektoren alle in Richtung der K-Kombination hinweggehen, kathesischen Koordinatenachsen liegen, haben wir also eine autonomierte Vektorbasis und eine allgemeinere Vektorbasis lassen wir jetzt gar nicht zu.
Und da wissen Sie aus dem bisherigen schon, für den Spezialfall einer autonomen Vektorbasis, normierten Basis stimmen Co-und Kontravariante-Komponenten überein und der Metric-Tensor ist die Einheitsmatrix. Ganz einfach. Und indem in diesem Fall jetzt die Co-und Kontravarianten-Komponenten immer übereinstimmen, können wir stets alle Indizes unten schreiben.
Und das werden wir jetzt auch machen, weil es macht keinen Unterschied, ob man Co-oder Kontravariante betrachtet. Das ändert sich aber augenblicklich, wenn wir ein zu anderen komplizierteren Koordinatensystemen übergehen werden. Und dort wird uns das dann sehr zugutekommen, dass Sie schon wissen, wie man mit Co-und Kontravariantenkomponenten in der Tensorrechnung umgeht.
Jetzt aber werden wir... Wir können einfach alle Indizes unten schreiben, weil sich das alles stets auf ein autonomiertes Basisvektorsystem bezieht. Und den Nabler-Operator.
dessen i die Komponente, schreiben wir auch nur einfach so, und das definieren wir als die partielle Ableitung d nach dxi. Wobei also das xi eben von diesen drei oder n Koordinaten x1 bis xn eine ist. Und wenn man diesen Operator so schon definiert, können wir gleich dazusetzen. eine Bezeichnung.
Die Größe Naplai, Naplai, die bezeichnen wir auch als Delta. Und das ist der Laplace-Operator. Und dieses Nabla I, Nabla I, da ist natürlich die Summationskonvention zu berücksichtigen und da steht also unschönerweise eben beide I unten, aber wie gesagt, wir machen das hier einfach so, weil es eben keinen...
Unterschied macht bei autonomierten Basisvektorsystemen, ob der Index oben oder unten steht. Und das heißt also dann, dass d nach dxi angewendet auf d nach dxi. Und das bedeutet jetzt in der Langschrift summiert also von 1 bis n, jetzt sagen wir halt einmal von 1 bis 3, d nach dx1 von d nach dx1, das ist d2 nach dx1 Quadrat plus d nach dx2 angewendet auf d nach dx2.
zweite Ableitung eben, d2 nach dx2² und noch plus d2 nach dx3². Und Sie sehen, dass dieser Laplace-Operator letztlich hier, wenn man ihn anwendet, als eine Summe darstellt. Der Laplace-Operator, der Napla 1 heißt D nach Dx1, der Napla 2 heißt D nach Dx2, Napla 3 heißt D nach Dx3.
Also auf die Art und Weise unterscheiden sich die, weil das ist von vornherein eine vektorielle Größe, während da hat man ja hier... hier eine Summation über I und da bleibt also hier dann eine skalare Größe stehen. Das ist also der Nabla-Operator und der Laplace-Operator.
Kurze Unterbrechung, gibt es da irgendeine Frage dazu? Könnte Ihnen ja schon bekannt sein, vielleicht ist es nur eine Wiederholung. Also nichts Unklares dabei.
Okay, dann gehen wir also zügig weiter und definieren uns also im Anschluss daran jetzt. den Gradienten eines Skalares. Der Gradient eines Skalars, den nennen wir in altbewährter Weise Lambda.
So wie da oben, dass auch ein Skalar ist, der ohne Index hier aufgeschrieben ist. Und dieser Gradient von Lambda, der wird also definiert als Eine vektorielle Größe mit einem Index i. Und das ist also nichts anderes als Nabla i angewendet auf Lambda oder d Lambda.
nach dxi. Das heißt, wenn man eine Skalar hernimmt und man bildet den Gradienten, dann kriegt man einen Vektor mit den Komponenten d Lambda nach dx1, d Lambda nach dx2 und d Lambda nach dx3. Eine vektorielle Größe. Was diese vektorielle Größe in Bezug auf diesen Skalar Lambda jetzt anschaulich bedeutet, Das werden wir erst im nächsten Kapitel, im Kapitel 14, bei den Integralsätzen besprechen. Jetzt hier rekapituliere ich noch einmal, was ich ganz kurz und vielleicht zu kurz vor den Ferien mit Ihnen besprochen habe, eben diese Ektor-Differenzialoperatoren.
Also nach dem Gradienten kommt als nächstes die Divergenz. eines Vektors. Da haben wir den Gradienten von Lambda und hier Divergenz von, und da nehmen wir halt einen Vektor V. Und das definieren wir als die Divergenz von V-Pfeil. Und da kommt ein Skalar heraus.
Beim Gradienten eines Skalars kommt ein Vektor heraus. Divergenz eines Vektors kommt ein Skalar heraus. Wir schreiben Nabla i, vi oder dvi nach dxi. Nabla angewendet auf v und über i wird summiert.
Das heißt, wenn man das wieder dreidimensional aufschreibt, dann haben wir dv1 nach d. dx1 plus dv2 nach dx2 plus dv3 nach dx3. Aber das ist nicht auf die Dimensionszahl 3 beschränkt. Und das ist also ein Skalar. Das ist ein Vektor, der Gradient.
Das daher ist ein... eine Skalargröße, die da herauskommt. Vergegenwärtigen Sie sich bitte, dass Lambda ist eine Funktion des Ortes, also der Ortskoordinaten, ebenso der Vektor V ist eine Funktion der Ortskoordinaten, sodass insbesondere alle Vektorkomponenten Funktionen der Ortskoordinaten sind und darauf beziehen sich diese Differenziationen. Dass ich da so ein merkwürdiges, rundes D schreibe, ist Ihnen sicher schon geläufig, ich sage es trotzdem noch einmal, weil es sich hier um eine partielle Ableitung handelt. Denn sowohl dieser Skalar Lambda als auch der Wetter...
hängt dem von mehreren Komponenten ab. Und wenn man jetzt nur noch von mehreren Koordinaten ab, und wenn man gerade noch eine speziell differenziert, werden alle anderen konstant gehalten. Das ist hier der Fall bei dλ nach dxI. Wenn man da gerade dλ nach dx2 ausrechnet, heißt das x1 und x3 bleibt konstant gehalten und nur die Änderung mit dem Argument x2.
Er wird behandelt und hier geht das in entsprechender Weise partielle Ableitungen. Und das ist es auch schon bei der Divergenz. Und als letztes definieren wir noch die Rotation.
von einem Vektor V-Pfeil. Und da ist es nun so, während der Gradient eines Skalars einen Vektor liefert, andererseits die Divergenz eines Vektors einen Skalar liefert, ist es bei der Rotation jetzt so, die Rotation eines Vektors liefert wiederum einen Vektor. Rotation V-Pfeil. Man rechnet sich hier die I-Komponente aus.
Man hat einen Vektor. Und das ist, was man oft so in den Anfangsgründen der Vektoranalys ist, als ein vektorielles Produkt des Nabler-Vektors mit dem Vektor V-Pfeil bezeichnet. Also Nabler-Kreuz-V-Pfeil.
die IT-Komponente. Das kann man sich hier praktisch merken, weil das hier das Skalarprodukt von Nabla-Pfeil und V-Pfeil ist, ist hier das vektorielle Produkt und damit, das muss ich bei der Stelle gleich betonen, hat man es jetzt nur mit einer dreidimensionalen Situation zu tun. Das ist so wie das vektorielle Produkt überhaupt wir definiert hatten schon, nur im dreidimensionalen Raum so möglich.
Und wir haben das ja als vektorelles Produkt dann so geschrieben, dass wir sagen, der Epsilon-Ten... so ein yijk und jetzt schreiben wir Nabla jvk erster Vektor zweiter Vektor und wenn die vektoriell multipliziert werden, sieht das so aus oder ein yijk denach DXJ angewendet auf VK. So sieht das aus.
Und da kommt also natürlich damit eine indizierte Größe und damit hier auch wieder ein Vektor heraus. Allerdings, Sie könnten jetzt schon etwas hellhörig werden, nach dem, was Sie ja schon wissen, weil dieses Epsilon, der Epsilon-Tensor, hat sich herausgestellt, dass der im strengen Sinn gar kein Vektor ist, sondern nur ein Tensor ist, sondern ein Pseudotensor. Der Tiff.
der transformiert sich irgendwie komisch, wenn man also insbesondere Spiegelungstransformationen betrachtet. Und daher ist auch zu erwarten, dass das auf die Rotation des Vektorfeldes abfärbt. Und das tut es auch. Also das werden wir dann in weiterer Folge noch näher behandeln.
Jetzt an dieser Stelle möchte ich also mit diesem... drei Größen, dem Gradienten der Divergenz und der Rotation, die wesentlichen drei Vektordifferenzialoperatoren für Sie eingeführt haben. Bei allen dreien gebe ich Ihnen jetzt zu diesem Zeitpunkt bewusst keine anschaulich geometrische Interpretation, aber die kommt unmittelbar im nächsten Kapitel.
Ich möchte jetzt nur mal sozusagen Handwerkszeuge für Sie bereitlegen und es ist mir wichtig, dass Sie also wirklich im Einzelnen verstehen, was damit gemeint ist. Insbesondere der Begriff der partiellen Ableitung ist hier von großer Bedeutung. Und vergessen Sie nicht, wir haben zwei unterschiedliche Dinge jetzt hier. Das eine ist die Komponenten eines Vektors. Und das andere ist die Koordinaten des Raumpunktes, an dem man sich befindet.
Die Komponenten des Vektors sind abhängig von den Koordinaten des Raumpunktes. Und im Fall eines Skalars ist der ganze Skalar abhängig von den Koordinaten des jeweils gewählten Raumpunktes. Komponenten ist das eine Business, Koordinaten ist etwas anderes.
Das kann man gar nicht früh genug sich klar machen, dass man das ganz deutlich auseinanderhalten muss. Das wird dann insbesondere bei den krummlinigen Koordinaten noch viel stärker ins Gewicht fallen. Während es hier jetzt...
noch nicht so wichtige Auswirkungen hat. Aber einige Eigenschaften von diesen Vektordifferenzialoperatoren möchte ich gleich mit Ihnen besprechen. Nachdem wir sie jetzt einmal definiert hatten.
Wir schauen uns also... Eigenschaften an. Oder wenn Sie so wollen, Rechenregeln, wie man damit umgeht.
Weil damit werden wir ja dann öfters zu tun haben. Und ich gebe Ihnen da nur Beispiele. Wenn man das dann in einer größeren Vollständigkeit haben möchte, findet man das in jeder Formelsammlung. Diese Sachen mit den kathesischen Koordinaten, die stehen überall gut drinnen.
Während dann, wenn es um die Krumm... umlinigen Koordinaten geht, da sind dann manchmal schon die Formelsammlungen nicht so vollständig. Aber wir werden das alles gemeinsam so besprechen, dass Sie sich sicher fühlen können auf diesem Gebiet.
Also jetzt einmal Beispiele. Ein ganz einfaches Beispiel ist, dass man die Divergenz bildet von einem Produkt Lambda mal V-Pfeil, also das Produkt eines Skalars mit einem Vektor. Das liefert wieder einen Vektor und die Divergenz wirkt auf einen Vektor und liefert einen Skalar. Das müssen Sie sich überhaupt versuchen irgendwie zur Gewohnheit zu machen. Wenn Sie so etwas vor sich stehen haben, schauen Sie zuerst einmal nach, ob da überhaupt etwas Vernünftiges steht.
Wenn ich da zum Beispiel schreibe schreiben würde, Divergenz von Lambda. Das ist ein Unsinn. Die Divergenz ist nur für Vektoren definiert.
Wenn man einen Skalar differenzieren will, ist der Gradient die richtige Größe. Aber Lambda mal V ist ja wieder ein Vektor und die Divergenz eines Vektors liefert einen Skalar. So schreibt man das also auf. So wie es definiert ist. Nabla I angewendet auf Lambda mal VI.
Weil Lambda mal VI ist die IT-Komponente des Vektors Lambda mal V. Und jetzt, und deswegen mache ich mit Ihnen dieses einfache Beispiel gleich am Anfang, tritt etwas Neues auf. Bisher hatten wir gesagt, es ist eine tolle Eigenschaft des Tensorformalismus mit den Indizes, dass man beliebig alle... alle Faktoren in ihrer Reihenfolge ändern kann, weil es liegt ja dann an der Gleichheit der Indizes, dass man weiß, worüber summiert werden soll.
Aber hier bei diesen... Vektordifferenzialoperatoren, bei dem Nabler-Operator, ist das nicht so einfach, dass ich jetzt das Lambda einfach noch vorsetzen darf oder das Vi. Weil damit entgeht diese Größe dann der Differenziation.
Der wirkt ja auf das Nachfolgende. D nach Dxi von dem. Daher muss man da aufpassen.
Man hat hier ein Produkt zweier Größen. Das Lambda ist als Kalender. eine Funktion der drei Ortskoordinaten und das V ist ebenfalls die VI-Funktion der Ortskoordinaten. Wenn Sie die x i differenzieren, müssen Sie die Produktregel anwenden, weil da haben Sie zwei Funktionen von den x i.
Also, die Produktregel sagt ja, dass man also eins differenziert und das zweite unverändert lässt und dann plus das Umgekehrte. Dann machen wir das hier entsprechend. Machen wir es halt einmal so, dass man zunächst einmal...
Das erste differenzieren und das zweite unverändert lässt. Dann kriegen wir, wenn man das zweite unverändert lässt, setzen wir es gleich nach v. Nach v. Vorne. Und dann bleibt mal nabler i angewendet auf Lambda. Jetzt haben wir also Lambda differenziert und vi unverändert gelassen.
Wenn ich etwas vor den Vektordifferenzialoperator schreibe, dann wirkt er dort nicht. Der wirkt nicht. zurück. Der wirkt nur in weiterer Richtung dann. So ist das definiert.
Auch wenn ich da d nach dxi schreiben würde, ist Ihnen ja klar, dass das nicht nach hinten zurückschlafen wird, sondern das ist nur das nächstfolgende ist dann davon betroffen. Aber jetzt plus, jetzt müssen wir andererseits sagen, erster Faktor unverändert weiter differenziert. Nehmen wir dann das Lambda noch vor. damit es außer Obligo ist und schreiben mal Nabla i Vi.
Jetzt kann man sich natürlich überlegen, was soll das hier? Da muss man natürlich ein bisschen ein Gefühl für die Dinge kriegen und sich anschauen, was da steht. Dieses Nabla i angewendet auf Lambda, das haben wir ja hier. Das heißt, es ist der Gradient Lambda die it-Komponente. Also, was da steht ist Vi mal Gradient Lambda, die It-Komponente.
Und dann plus, was haben wir denn da jetzt? Das Nabla i Vi, das haben wir hier, das ist die Divergenz von V. Und so haben wir da mal Lambda mal Divergenz von V. Nun, jetzt sehen Sie doch, da ist VI mal dieser Vektor I. Das heißt, was da hier steht, ist was für ein Produkt? Das Skalarprodukt.
So wie man ja gehabt hat. haben A Skalar mit B ist AI BI. Wir haben zwar nur unten und oben geschrieben, aber vergessen es nicht. Wir sind bei kathesischen Koordinaten und dementsprechend orthonormalen Basisvektoren. Und da sind wir einfach faul und schreiben alle Indizes unten, weil es sich eh nicht auszahlt, sozusagen.
Und daher schaut das jetzt für Sie etwas ungewohnt aus. Und was also stehen bleibt, ist V Pfeil Skalar mit Nun, da kann man nichts mehr tun, das ist schon fertig. Lambda mal Divergenz V. Und diese Formel finden Sie sicher irgendwo in einer Formelsammlung.
Und viele ähnliche Formeln gibt es dann auch. Also das ist letztlich nur eine Auswirkung der Produktregel. Man darf ja nicht vergessen, das ist zwar jetzt irgendwie ein bisschen komplizierter mit diesen ganzen indizierten Vektordifferenzialoperatoren, aber letzten Endes ist es nur ein unordinäres Differenzieren, was Ihnen ja längst bekannt ist. Nur ein bisschen umständlicher, weil halt mehr verschiedene Koordinaten sind, nach denen differenziert. Also man muss Ordnung halten bei dem, was man macht.
Aber ansonsten ist es für Sie nicht wirklich etwas ganz Neues. Naja, aber damit die Geschichte vielleicht doch ein bisschen spannender auch wird für Sie und Sie auch gleich sehen, was uns jetzt... der Indexformalismus da gleich für große Vorteile liefert, können wir mal ein bisschen was Involvierteres betrachten.
Betrachten wir mal die Rotation, eine Rotation von, und da schreiben wir wieder einen Vektor V hinein. Na ja, kann man das überhaupt? Da muss man schauen. Da muss man ein bisschen auseinanderklamüsern. V ist ein Vektor.
Rotation angewendet auf einen Vektor liefert wieder einen Vektor. Und die Rotation, die auf diesen Vektor angewendet, liefert wieder einen Vektor. Also das alles Von dem rechnen wir uns die IT-Komponente aus.
Das ist schon eine Rotation einer Rotation. Da muss man schon genauer schauen, was da passiert. Da schaut man dann üblicherweise wieder in der Formelsammlung nach. sehen in wenigen Zeilen, ohne Probleme.
Das haben Sie jetzt schon voll im Griff. Da kann man sich das ausrechnen. Ich mache es jetzt ein bisschen langsam, dass sich immer im klaren Sinn was passiert. Den Schritt, den ich jetzt mache, den kann man sich dann, wenn man schon ein bisschen mehr auf der Klaviatur spielt, kann man sich dann schon sparen.
Nämlich, ich werde jetzt da diese Definition mit der Rotation erst einmal in der Weise aufschreiben. Die IT-Komponente gibt es. Epsilon IJK, Nabla J, VK.
Also, das ist Epsilon IJK, Nabla J, und das VK ist der ganze Vektor. Das ist der Vektor Rotation V-Pfeil, die Karte-Komponente. Epsilon IEK, Nabla E, und dann der Vektor, Karte Komponente.
Und jetzt aber sehen Sie natürlich, dass man das jetzt sofort noch einmal entsprechend im Detail... aufschreiben kann. Da schreiben wir ab, was wir schon haben. Epsilon IJK Navler J und die Rotation V, die Karte-Komponente ist jetzt wieder entsprechend dann wieder hier yk und weitere Indizes, yk und dann kann man nicht wieder ij sagen, das ist schon verbraucht.
Jedenfalls über j wird ja da hier schon summiert. Also machen wir klm. Das ist keine Fluglinie, sonst sind halt die Buchstaben.
yklm kriegt keine Prozente, leider Gottes. haben wir wieder Napla L und Vm. Das Rotation Vk-Akte-Komponent ist yk, Lm, Napla L, Vm.
Naja, das ist jetzt wieder so eine Sache, die man nur mit der Methode des kontinuierlichen Anstarrens weiterlösen kann. Und da versucht man halt einmal zunächst ein bisschen Ordnung zu schaffen. Tun wir mal die zwei Epsilon-Tensoren zusammen. Jetzt werden Sie mir natürlich sagen, halt, halt, das geht nicht, weil ich habe doch gerade vorhin gesagt, bei diesen Vektordifferenzialoperatoren kann man es nicht so ohne weiteres herumschieben.
Aber beachten Sie, Der Epsilon-Tensor in kathesischen Koordinaten hat lauter konstante Komponenten. Nur Einser und Nullen und Minuseinser, sonst nichts. Weil wir haben da beim Epsilon-Tensor gesagt, Sie erinnern sich doch, der Februar.
aber wir haben ja nicht alles ausgelöscht aus Ihrem Gedächtnis. Der Yijk war Wurzel aus G mal dieses antisymmetrische Symbol Y von IJk. Und das kann nur 1, minus 1 und 0 sein.
Aber das Wurzel aus G, G ist die Determinante des Metriktensers. Und der Metriktenser, der braucht nicht unmittelbar konstant zu sein. Aber, wenn wir nur kathesische Koordinaten verwenden, was wird denn dann der Metriktenser? sein?
Die Einheitsmatrix und die Determinante der Einheitsmatrix ist 1 und die positive Wurzel aus 1 ist wieder 1. Also daher sind das ja lauter Konstanten. Und Konstanten, das wissen wir ja, kann man natürlich vor die Differenzation setzen, weil das spielt keine Rolle. Folglich können wir das noch vorziehen.
Und haben wir YGK, weil jetzt wollen wir ein bisschen was machen. Wenn wir das zyklisch vertauschen, statt IJK, tun wir das K noch vor, KIJ. Wenn das eine gerade Permutation von 1, 2, 3 ist, wird das auch eine gerade Permutation von 1, 2, 3 sein.
Wenn man die zyklisch vertauscht, findet man nichts an dem Epsilon-Tensor. Erinnern Sie sich an diese Geschichten? Also wenn man das K da noch vorzutun, vorzieht, ykij bildet, ändert sich nichts.
Und dann holen wir uns den dazu, yklm und jetzt haben wir nablaj, nabla l, vm. Was fällt Ihnen da jetzt auf? Was könnten wir da jetzt tun?
Genau. Da haben wir ja schon diese Summation über K. schon im vergangenen Wintersemester überlegt.
Das ist jetzt genau so. Also was bleibt da? Kann das vielleicht sogar jemand diktieren? Delta IL mal Delta JM minus Delta IM. mal Delta j l.
Wir haben das einfach dadurch ersetzt. Und sonst bleibt alles stehen. Nabla j Nabla l v m. Naja, man muss nur aufpassen, dass man nicht die Übersicht verliert.
Mit diesen Deltas, das sind ja Aktionen, wo Indizes ausgetauscht werden, wenn man da summiert. Also wenn Sie sich zum Beispiel anschauen, Delta j m, Nabla j. Über j wird summiert, nur für j gleich m steht was da, bleibt also da Nabla m stehen.
Dann Delta I L, Nabla L, über L wird summiert, nur für I gleich L steht was da, denn Nabla I stehen. Damit haben wir die ausgenutzt und jetzt bleibt uns da noch das Vm über. Minus, jetzt haben wir da Delta J L, Nabla J ist Nabla L. Delta I, dann haben wir noch einmal Nabla L von da, ändert sich nichts und das Vm geht mit dem M in Vi. Was kommt heraus? Die zwei Nabler-Operatoren, die darf man austauschen.
Das ist ein Satz aus der Mathematik, Funktionen mehrer veränderlicher. Unter sehr weiten Voraussetzungen gilt, dass die Reihenfolge der partiellen Differenziationen nichts am Ergebnis ändert. Also können wir die zwei Nabler-Operatoren austauschen.
Was wird also stehen? Naplai Naplamvm minus Naplael Naplalvi. Nun und jetzt braucht man nur mehr aufmerksam schauen, um zu sehen was man da hat.
Naplamvm. Das haben wir da oben, Nabla i, Vi, ob i oder m, das ist ja nur ein Simulationsindex. Das heißt, das ist die Divergenz.
Das ist die Divergenz von V-Pfeil. Und als solches ein Skalar hat ja keinen freien Index. Nabla I angewendet auf einen Skalar gibt eine Gradient des Skalars. Also was man hier kriegt, ist der Gradient des Skalars Divergenz V-Pfeil und davon die I-Komponente.
Verständlich? Sagen Sie es ehrlich. Ja, das ist für Sie schon irgendwie neu, was ich da mit Ihnen tue, glaube ich.
Daher ist es wichtig, dass Sie sich jetzt nicht denken, ja, wird schon sein. Sie sollen das selber können. Und dazu müssen Sie wirklich gut verstehen, was da passiert.
Das ist die Divergenz von V. Das ist das Gradient von Divergenz V. Mensch, man weiß, dass das der Reinachs so bedeutet. Nun, was bleibt dann hier? Minus.
Napla L, Napla L. Napla I, Napla I ist der Laplace-Operator. Der Laplace-Operator angewendet auf V-Pfeil und von dem Ganzen die IT-Komponente. Man wendet ihn auf jede Komponente des Vektors V an.
Daher kann man sagen, man wendet ihn auf V an und betrachtet die IT-Komponente. Und damit ist es fertig. Weiter haben Sie jetzt Rot-Rot-V. Die IT-Komponente ist das IT-Komponente minus V. Das ist die Ite-Komponente.
Und jetzt können Sie, wenn Sie wollen, die Iten-Komponenten weglassen und schreiben es als Vektorgleichung auf. Damit hält man also, das schreibe ich jetzt als Ergebnis an, mit einem großen Folgepfeil, die Rot-Rot-V ist gleich Grativ. V-Pfeil minus Delta. V-Pfeil. Oder ganz kurz gesagt, aber das ist natürlich nur mehr inoffiziell.
Rot-Rot ist Grad-Tief minus Delta. So einfach. Rot-Rot ist Grad-Tief minus Delta.
Wenn wir das also anwenden auf einen Vektor. dann haben wir kreativ auf dem Weg der Minusdelta. Und das zeigt sich, dass das insbesondere dort praktisch ist, wenn man, was im Sommersemester ist, bei Ihnen kommen wird, die Elektrodynamik behandeln wird, dass Sie da...
mit Hilfe dieser Beziehung einen sehr direkten Zugang kriegen, wie man aus den Max-Weltgleichungen die Wellengleichungen bekommen kann. Da kann man diese Umformung sehr gut verwenden. Also das ist etwas Praktisches für die Anwendung in der Physik. Ein Stück Werkzeug gewissermaßen. So etwas findet man auch in Formelsammlungen.
Das schaut dann schon irgendwie recht involviert aus, aber wenn Sie sich das jetzt anschauen, ist ja nicht viel passiert. Jetzt sagen Sie es mir ganz ehrlich, jeder und jede, die das... darin sitzt, wer hat da irgendein Verständnisproblem dabei?
Ja. Also die Zeilen, auf die die Konnecker-Delta aufhört, wir müssen nicht ganz klar, wie da die neuen Indizes entstehen, die ersten Zeilen, die Konnecker-Delta. Also. Die Zeile mit den Chroniker-Delta selbst ist außer Frage.
Nur wie man jetzt damit, verstehe ich Sie richtig, wie man umgeht damit? Da muss man sich anschauen, wenn da diese Chroniker-Delta stehen, wie kann ich mit deren Hilfe Indizes austauschen? Da muss es eine Überschiebung geben.
Und da steht... Da gibt es eine Überschiebung mit dem j. Dann haben wir das Delta j m, Nabla j ist Nabla m. Dann bleibt dieses Delta i l, das geht ja mit dem l, bleibt ein Nabla i.
Und am Schluss ist man schon fertig, steht da noch das Vm. Und da geht es völlig ähnlich. Sie suchen sich die Sachen zusammen, wo was einen gleichen Index hat und wo es überschoben wird.
Und wo dann die Argumentation eben nur ist, für i gleich l steht was da, daher steht da dann nabler i. Und da bei dem haben Sie es hier nur wie j gleich m steht was da, daher steht da nabler m. Und das Vm ist übergeblieben, da auf das wirkt jetzt nichts mehr. Und hier geht es in völlig ähnlicher Weise, nur da haben Sie Delta Im, das geht auf das Vm, macht Vi.
Und dann das Delta Jl, da hat das Erste, wird ein Nabler L draus. Und dann bleibt nur das andere Nabler L stehen. Verständlich? Bitte.
Egal. Es kommt das Gleiche raus. Sie sehen ja aus den Indizes, wo es passt.
Das L geht mit dem, das M geht mit dem, aber auch, es wäre egal, schauen Sie, ich weiß schon, was Sie meinen. Angenommen, wir würden jetzt das J M mit dem Nabler J, dann kommt ein Nabler M heraus. Dann steht... Dann steht ein Ablei J V J und es bleibt dasselbe wieder.
Es läuft aufs gleiche hinaus. Natürlich, natürlich, Sie können natürlich ganz richtig da vorne, gleich von vorne, das Delta J. gm aufs vm anwenden, dann bleibt vj über.
Aber dafür bleibt dann das Nabla j da stehen und jetzt haben sie dann nur mehr aus dem Nabla l, das Nabla i, steht Nabla j, Nabla i, vj. Und ob sie jetzt über j summieren oder über m summieren, ändert nichts. Klar?
Gut, ich will Sie auch nicht fatisieren damit, aber das ist so dieses Handwerkszeug, das man dann zur Verfügung hat. wenn man mit diesen Tänzergleichungen umgeht. Aber was also rauskommt, ist rot-rot, ist grad-div-minus-delta.
Alles angewendet auf V. Und jetzt gibt es aber noch zwei spezielle und allgemein wichtige Relationen. die ich beide an der Stelle jetzt bringen möchte und die werden wir dann in weiterer Folge sehr häufig verwenden. Also jetzt haben wir gehabt rot-rot, jetzt bilden wir aber ein rot-grat. angewendet auf einen Skalar-Lambda.
Der Gradient, wie der immer, wie es da steht, auf einen Skalar angewendet. Also rot angewendet auf Grad-Lambda. Schauen wir, ob das überhaupt etwas Vernünftiges bringt. auf einen Skalar angewendet, liefert einen Vektor.
Die Rotation angewendet auf einen Vektor, liefert wieder einen Vektor. Das heißt, wir haben hier eine Ite-Komponente. Und das ist okay, es stimmt.
So kann es ausschauen. Also versuchen wir das auszurechnen. Die Rotation Ite-Komponente ist Epsilon Igk nach Blatt E Und jetzt schreibe ich es nochmal langsam, mal Gradient Lambda die Karte Komponente.
Das ist der Vektor, Gradient Lambda, die Karte Komponente. Epsilon IEK, Nabla E und von dem Vektor die Karte Komponente. Nun, was kommt heraus? Schreiben wir alles ab.
Epsilon IJK Nabla J und von Gradient Lambda die Karte kommt A Lambda. Ja, naja, und jetzt hat man eigentlich das Gefühl, da kann man nicht mehr viel machen. Das Einzige, was man weiß, das haben wir vorhin schon besprochen, unter sehr weiten Voraussetzungen, gilt mathematisch, dass es keinen Unterschied macht, ob man die Reihenfolge der partiellen Ableitungen vertauscht oder nicht. Was fällt Ihnen dann da auf? Das ist symmetrisch in j und k, weil es wurscht ist, die Reihenfolge der Differenziationen liefert das gleiche Ergebnis.
Aber da der Epsilon-Tensor ist ein vollständig antisymmetrischer Tensor dritter Stufe, das ist antisymmetrisch in j und k. Über j und k wird dabei das summiert, das ist eine Überschiebung. Wenn man etwas Symmetrisches mit etwas Antisymmetrischem überschiebt, kommt null heraus.
Das haben wir uns schon im Wintersemester überlegt, das können Sie nachschlagen. Das machen wir jetzt nicht noch einmal, das ist schon ein Stück unseres Werkzeuges. Also siehe da, da kommt immer null heraus. Rotgrad ist null.
Der Gradient ist rotationsfrei, kann man auch sagen. Das sagt Ihnen zunächst gar nichts und wird Ihnen zunächst auch gar keine besondere Anschaulichkeit liefern. Aber warten Sie nur. Das dauert nicht mehr lang. Und dann werden Sie sehen, dass das ganz entscheidende Grundlagen sind für das Verständnis der Vektoranalysis.
Das andere, was wir da noch besprechen wollen... Die Divergenz von Rotation V-Pfeil. Also rot-grat ist null, was macht tiefrot? Schauen wir, ob das geht.
Rotation angewendet auf ein Vektorfeld liefert wieder ein Vektorfeld. Und die Divergenz angewendet auf ein Vektorfeld liefert einen Skalar. So brauchen wir da gar keinen Index dazu schreiben.
Das kommt schon so als Skalar heraus. Aber schauen wir nach, was herauskommt. Da schauen wir uns also wieder diese Rotation V als einen Vektor an und davon die Divergenz.
Wir entwickeln das also wieder. Die Divergenz eines Vektors V-Pfeil ist Nabla I VI. Also Nabla I. Das ist der Vektor, auf den die Divergenz wirkt.
Nabla i, i die Komponente von dem. Rotation v, pfeil, i die Komponente. Jetzt lösen wir das auch auf hier. Und kriegen also...
auf die Rotation. Die Rotation von V-Pfeil steht da, ist YIJK nabler JVK. Also die IT-Komponente ist YIJK.
Nablaj Vk. Jetzt tun wir den Epsilon-Tensor wieder nach vor, weil da haben wir uns ja klar gemacht, also bei kathesischen Koordinaten hat der ja lauter konstante Komponenten und wenn man da differenziert, das ist ja ein konstanter Faktor, haben wir Nablaj Vk. Naja, wieder so eine Situation.
Das ist symmetrisch in I und J, weil es auf die Reihenfolge der partiellen Ableitungen nicht ankommt. Das dagegen ist antisymmetrisch in I und J. Über I und J wird da übersummiert, also es ist eine Überschiebung.
antisymmetrisches mit etwas Symmetrischem überschoben, kommt schon wieder Null heraus. Also nicht nur Rot-Gratis-Null, sondern auch Tief-Rotis-Null. Das sind zwei ganz entscheidende Grundeigenschaften dieser Vektordifferenzialoperatoren.
Und das wollte ich Ihnen alles so in einer einfachen und schnell zusammengefassten Form zeigen, damit Sie gut mit Vektordifferenzialoperatoren umgehen können. Aber das ist zunächst totes Wissen. Und um das jetzt zum Leben zu erwecken sozusagen, sodass Sie dann auch wissen, wozu man sich sowas ausrechnet. Denn wozu soll ich den Gradienten eines Eskalars ausrechnen? gar nicht weiß, was ich damit erhalten habe.
Kommt es jetzt darauf an, dass man eine geometrisch anschauliche Bedeutung dazu gewinnt. Und das geht auf der Basis der im kommenden Kapitel 14 zu besprechenden Integralsätze. Eine zentrale Sache. Und Sie werden sich jetzt vielleicht daran denken, das war sie ja schon alles. Naja, aber im Zusammenhang und unter der Verwendung des Indexformalismus wird es für Sie vielleicht noch einige zusätzliche Aspekte geben.
Aspekte dazu liefern. Und die kann man dann in weiterer Folge, wie Sie sehen werden, in der Physik sehr gewinnbringend anwenden. Also diese Integralsätze, ich habe es schon vorhin erwähnt, kurz am Anfang. Dienen dazu, so in der Physik wichtige Integrale, Volumsintegrale, Flächenintegrale und Kurvenintegrale so umzuformen, dass man sich eine Integration erspart.
Statt eines Volumsintegrals braucht man nur mehr ein Flächenintegral. Ausrechnen, statt eines Flächenintegrals überhaupt nur mehr Integrale über der anderen Fläche. Und bei einem Kurvenintegral kann man sich die Integration erspart. überhaupt sparen. Und das möchte ich Ihnen jetzt eben bei den verschiedenen Integralen zeigen.
Und da beginnen wir A mit dem Kurvenintegral. Die Integralsätze beweise ich aber nicht, die gebe ich nur an. Dafür gibt es die Mathematik und mathematische Literatur, wo das also dann bewiesen wird. Wir wollen es nur in das Schema...
hineinsetzen, sodass Sie sich da gut auskennen. Also beim Kurvenintegral oder Wegeintegral ist es so, wir betrachten als ein Integral V-Pfeil, dS-Pfeil über eine Kurve C. Zumeist von einem Anfangspunkt bis zu einem Endpunkt. P1 und P2 sind die Endpunkte der Kurve, von der Kurve C. Und wie kann man sich da helfen?
Und da zeigt sich, das ist eine Situation, wie man sie völlig analog schon aus der Schule kennt. Wenn man bestimmte Integrale über eine Funktion ausrechnen möchte, das ist jetzt ein Einschub, um das Ganze für Siebler aus Siebler zu machen. Ein Integral von einem Anfangspunkt bis zu einem Endpunkt f'von x dx Wissen Sie, wie man das ausrechnet?
Die Stammfunktion von f'von x ist f von x. f von b minus f von a. Wenn ich also ein solches Integral ausrechnen möchte, dann bilde ich zunächst einmal das unbestimmte Integral dieses Integranden. Den habe ich hier schon als f'von x angeschrieben. Das unbestimmte Integral ist das f von x.
Und bilde das an der Stelle b und an der Stelle a. Subtrahiert das von b. voneinander und so ist das Ergebnis. Und das lässt sich also verhältnismäßig einfach beweisen, was wir jetzt durchführen werden.
Das ist nur für eine Dimension, wir reden nur von x. Und jetzt zeigt sich, das war der Einschub, dass das ähnlich auch geht für ein Kurvenintegral. Hier betrachtet man eine abgeleitete Position von x. Und so schreiben wir jetzt beim Kurvenintegral ein Integral über c, aber statt v-Pfeil schreiben wir eine Ableitung einer anderen Größe.
Gradient Lambda. Das ist jetzt unser V-Pfeil. V-Pfeil.
DS-Pfeil. Und dieses c ist eben diese Kurve, die von p1 bis p2 geht, das sind die zwei Endpunkte der Kurve c. Und völlig analog wie hier ergibt es sich jetzt, dass das gleich ist dem Skalar Lambda am Endpunkt p2. Minus dem Skal Lambda am Anfangspunkt P1.
Völlig analog dazu. Der Gradient von dem Lambda, das ist ein Lambda abgeleitet. Also statt F abgeleitet ist Lambda abgeleitet. Jetzt halt abgeleitet nach allen Raumkoordinaten, so wie es da oben steht.
und nicht nur nach einer Koordinate x, so wie da. Und man kriegt dann entsprechenderweise eben dieses Lambda an der Endstelle minus Lambda an der Anfangsstelle. ist jetzt was Dreidimensionales.
P1 und P2 sind Punkte in einem dreidimensionalen oder allgemein endimensionalen Raum. Und da hier hatte man nur eine Dimension. Das heißt, es ist eine unmittelbare Verallgemeinerung dieses Ihnen bekannten Hauptsatzes der Analysis oder der Differenzial-und Integralrechnung.
Sie sehen hier, es passiert ganz was Wichtiges. Man kann dieses Integral, wenn man diesen Vektor V-Pfeil da drinnen als Gradient eines Skalars aufschreiben kann, dieses Integral kann man so umformen, dass man gar nicht mehr integrieren muss. Das ist eine eindimensionale Integration.
Eins weniger, gar keine Integration. Sie brauchen nur diesen Skalar an den zwei Punkten, Endpunkt und Anfangspunkt dieser Kurve. Also was sich daraus ergibt, ist, falls V gleich Gradient Lambda über das da hier integriert werden soll, als Gradient eines Skalars darstellen lässt. In dem Fall lässt sich...
Dann lässt sich dieses Integral von P1 bis P2, V-Pfeil, dS-Pfeil, schreiben als Lambda am Ende. Endpunkt minus Lambda am Anfangspunkt. Und dieses Lambda, das nennt man daher ein Potenzial.
Wenn man ein Potenzial einführen kann, in der Weise, dass man das vorliegende Vektorfeld als Gradient dieses Potenzials ansetzen kann, gibt sich diese ganz wichtige Vereinfachung. Nur dann. Und es zeigt sich, das geht nicht immer. Es gibt natürlich Vektorfelder, bei denen das nicht so ist.
Das werden wir uns im nächsten Kapitel anschauen. Damit man sich klarmacht, unter welchen Voraussetzungen kann man denn so ein Potenzial haben. Dieses Lambda jedenfalls nennen wir das Skalarpotential. Und diejenigen, die sich an die Mechanik gut erinnern, werden wissen, dass das etwas mit der potenziellen Energie zu tun hat. Wie üblich sind alle Farbkreide da, nur die rote ist weg.
Nein, ein Zupferl habe ich da noch gefunden. Also etwas anders ausgedrückt, falls ein Vektorfeld, das man da betrachtet, mit Hilfe eines skalaren Potenzials dargestellt werden kann, als Gradient dieses Vektors, eskalaren Potenzials. Dann kann das Kurvenintegral über dieses Vektorfeld dargestellt werden, einfach als Differenz der Potenzialwerte in Endpunkt und Anfangspunkt.
Und das wird Ihnen gut bekannt sein, wenn Sie sich erinnern, an die potenzielle Energie, weil man kann also jetzt sagen, wenn dieser Vektor V-Pfeilen Kraftvektor ist, dann ist Integral VDS eine Arbeit und die lässt sich darstellen als Differenz der potenziellen Energie. an Endpunkt und Anfangspunkt. Und es kommt dann auch gar nicht auf den eigentlichen, konkreten Weg dazwischen an, sondern nur auf Anfangs-und Endpunkt.
Aber das kommt da rein mathematisch heraus. Das ist jetzt nur eine unmittelbare und wie sie natürlich sofort erkennen, eine äußerst wichtige physikalische Anwendung. Aber wir schauen uns das jetzt nur mathematisch an. Wir schauen uns hier unsere Werkzeuge an, die wir da eben schaffen können.
Gehen wir da noch ein Stück weiter. Da können wir gleich noch eine weitere Folgerung ziehen. Und zwar, noch einmal, so wie hier, falls V'gleich Gradient Lambda ist, Also wenn bei dem Vektorfeld ein skalares Potential eingeführt werden kann, dann gilt entsprechend auch dass das Ringintegral über eine geschlossene Kurve, V-Pfeil, dS-Pfeil, was ist? Null, weil geschlossene Kurve heißt einfach Anfangspunkt ist gleich Endpunkt. Und wenn ich dann da Lambda von P2 gleich Lambda, minus Lambda von P1, aber P1 ist gleich P2, dann ist die Differenz null.
Und da sehen Sie natürlich sofort, das ist das, was man in der Mechanik als konservative Kräfte auffasst. Das sind solche Kräfte, wo die Arbeit längs eines geschlossenen... an Wege, seiner geschlossenen Bahnkurve immer gleich Null ist.
Es gibt aber welche, die nicht konservativ sind, aber die, bei denen ein skalares Potenzial eingeführt werden kann. Das ist dann in der Mechanik die potenzielle Energie. Bei denen gilt dann, dass es eben konservative Kräfte sind.
Anders gesagt, bei konservativen Kräften kann man eine potenzielle Energie einführen. Bei nicht konservativen geht das nicht. Also das ist eine unmittelbare physikalisch-mechanische Anwendung.
Und wenn natürlich dieses Wegintegrallengst eines geschlossenen Weges gleich 0 ist, dann heißt das auch, wenn man zwei Punkte betrachtet, dann kommt es nicht darauf an, ob man den einen Weg oder den anderen Weg nimmt, es kommt das Gleiche heraus. Was man ja schon an dem hier sieht, es kommt hier nur... auf die Endpunkte an und nicht auf den konkreten Verlauf der Bahnkurve zwischen diesen Endpunkten. Deswegen ist es ja hier auch Null, wenn man rundherum geht.
Das hängt alles sehr eng miteinander zusammen. Okay, aber jetzt haben wir gerade noch 20 Minuten und da haben wir Zeit und jetzt aufgrund dessen, was wir hier gewonnen haben. Die anschaulich geometrische Bedeutung von Gradient Lambda anzuschauen. Ich habe geometrisch gesagt, nein, anschaulich. Anschauliche Bedeutung.
Das ist also für heute sozusagen bei der Dramaturgie heute der Höhepunkt. Also wenn Sie jetzt zu Hause gehen nachher, oder Sie werden noch nicht zu Hause gehen, in die nächste Vorlesung gehen, das sollten Sie jetzt mitnehmen, was jetzt kommt. und unterbrechen Sie mich, wenn etwas unklar ist. Ein bisschen mitdenken muss man da schon. Wir haben hier eine Kurve von P1 bis P2 betrachtet.
Jetzt wollen wir nur ein kleines Stück einer solchen Kurve betrachten. Kleines Kurvenstück. Was heißt kleines Kurvenstück?
Was ist klein? Was ist groß? Also das sei so festgelegt, dass also längs dieser Kurve sich das V-Pfeil bzw. das Gradient Lambda nicht mehr nennenswert ändert.
Nur so ein kleines Stück, wo es also kaum eine Änderung des Vektors bzw. des Skalars Lambda, dessen Gradient ja der Vektor ist, ergibt. So ein kleines Kurvenstück soll das sein. Das betrachten wir jetzt.
Das schaut zum Beispiel so aus, dass wir also da haben wir P1, da haben wir P2 und da dazwischen gibt es dieses Kurvenstück. Und dieses Kurvenstück kann dann gleich durch ein solches... ds-Pfeil beschrieben werden.
Eigentlich genau genommen ein Delta-s-Pfeil. Das soll noch was Makroskopisches sein. Ein Delta-s-Pfeil.
Von P1 bis P2. Und in den beiden Punkten soll sich das V und das Lambda nicht mehr wesentlich voneinander unterscheiden. Und wir betrachten jetzt ein solches Integral, wie wir es da besprochen haben.
V ds, ein Integral-V-Pfeil ds-Pfeil oder ein Integral-Gradient-Lambda-ds-Pfeil, so wie es da hier steht, Integral-Lambda-ds-Pfeil, über dieses kleine Kurvenstück c. Und solche Integrale werden ja üblicherweise so gemacht, dass man die Kurven in lauter kleine Teile zerlegt und dann eine Summe V'mal Δs'bildet und geht dann zu immer feineren Einteilungen. Wenn aber das schon so ein kleines Kurvenstück ist, dass sich über diese Länge das V-Pfeil und das Gradient Lambda gar nicht mehr nennenswert ändert, brauchen wir da gar keine weitere feinere Einteilung machen. Das ist schon klein genug, dass das nur ein Einteilungsstück ist.
Mehr machen wir hier gar nicht. Das heißt, man kann hier sagen, das ist in guter Näherung einfach gleich Gradient Lambda mal Delta S-Pfeil. Das ist schon die Einteilung. Das braucht man nicht noch feiner einteilen.
Die sind schon nahe genug, dass man es durch weitere feinere Einteilung liefert, das nichts mehr. Man macht es halt klein genug. Wir gehen dann letzten Endes...
über alle Grenzen und lassen dieses Stück immer mehr schrumpfen. Aber jetzt nehmen wir halt noch eine ähnliche Größe, aber so, dass das nicht mehr viel ausgibt. Also dieses Integral Gradient Lambda ds kann man näherungsweise schreiben als Gradient Lambda mal dieses Delta s Pfeil.
Naja. Und jetzt schauen wir nach, wie man das umformen kann. Dieses Delta-S-Pfeil, das ist ja ein Vektor, der dieses kleine Kurvenstück beschreibt. Der Tangentenvektor dieses Kurvenstückes. Als den Tangenten-Einheitsvektor betrachten, da schreibe ich ein Dach drüber und deute damit an, dass das der Tangenten-Einheitsvektor für diese kleine Kurve ist.
Aber der ist natürlich größer. als das Kurvenstück, weil der hat ja die Länge 1, während dieses Kurvenstück ist ja ein viel kleineres Stück da hier. Wie können wir das also dann schreiben? Dieses Delta S Pfeil, was da drinnen vorkommt, in diesem Integral V ds, das habe ich vorher nicht dazu gesagt, weil ich davon ausgegangen bin, Sie wissen das.
S ist ein Skalar mal dem Tangenten-Einheitsvektor, ist dann dieses ds-Pfeil. Oder wenn man die ganze Kurve betrachtet und man teilt die so ein, dann hat man da so ein delta s-Pfeil. geht dann an der Stelle raus mit der Länge 1 und die Länge von dem Delta S Pfeil ist eben Delta S. S mal diesem Tangenten-Einheitsvektor ist das Delta-S-Pfeil.
Aber das sollte Ihnen längst bekannt sein aus den physikalischen Rechenmethoden, wo man ja diese Kurvenintegrale haben Sie ja dort schon ausführlich kennengelernt. Also dieses Wegstück Delta S Pfeil kann geschrieben werden als die Länge dieses Wegstückes mal dem Tangenten Einheitsvektor. Einheitsvektor, damit wenn man das mit dem multipliziert, kommt ein Vektor raus, der gerade die Länge dieses Wegstückes hat. Wem ist das unverständlich?
Sehr gut. Dann kann man das hier als ein gleicher Gradient landen, mal Delta S-Pfeil. Das ist statt Delta S-Pfeil schreiben wir T mal Delta S. Delta S-Pfeil. Ist T mal Delta S. Ich schreibe das einmal dazu, dass das klar ist. Das wäre es auch hier schreiben können, statt Delta S Pfeil.
t'mal Delta S ist gradient Lambda, ist gleich und was steht auf der anderen Seite? Dieses Integral über die Kurve C, gradient Lambda dS. Und jetzt dividieren wir durch diesen Skalar Delta S durch und kriegen mit dem Gradienten von Lambda und da steht es S, das haben wir runterdividiert, das ist mal dem Integrator die Kurve C Gradient Lambda mal dS pfeilt. Und jetzt?
Jetzt verwenden wir unseren Integralsatz. Das Integralgradient Lambda ds-Pfeil ist Lambda von p2 minus Lambda von p1. Und damit erhalten wir als Folgerung das t-Dach mal Gradient Lambda.
ist gleich 1 durch Delta S mal, und statt Grad Integral Gradient Lambda dS, können wir schreiben Lambda von P2 minus Lambda von P1. Und diese Gleichung, die wollen wir jetzt interpretieren. Also T'ist der Tangenteneinheitsvektor. Der Betrag von t'ist daher 1. Und er zeigt in Richtung der betrachteten Kurve, diese kleine Kurve. Das ist der Tangentenvektor t'Und wir sehen jetzt Folgendes.
Das ist die Differenz des Skalares Lambda zwischen Endpunkt und Anfangspunkt. Eine kleine Differenz wird es geben. Delta S ist die Länge dieser Strecke. Delta S-Pfeil ist gleich T-Dach mal Delta S. Und so haben wir mit diesem 1 durch Delta S mal Lambda von P2 minus Lambda von P1 die Änderung des Skalars Lambda über die Strecke von P1 bis P2 pro Längeneinheit, weil das Delta S ist die Länge dieser Strecke. So haben wir also das T-Gradient Lambda ist die Änderung des Skalars Lambda über diese Strecke pro Längeneinheit.
die Änderung von Lambda pro Längeneinheit. Und jetzt haben wir natürlich die Wahl, wenn wir so eine Skalar-Lambda vorgeben, dass wir dort dieses kleine Kurvenstück verschieben. unterschiedenlegen können und daher auch diesen Tangenten-Einheitsvektor unterschiedlich legen können. Aber der Gradient Lambda, das ist ein fester Vektor, der nur von dem vorgegebenen Skalier Kalar lambda abhängig ist. Jetzt kann man sich gleich anschauen, wie muss man denn diesen Tangenteneinheitsvektor legen, damit diese Größe T'mal Gradient Lambda maximal wird.
Wann wird das maximal sein? Wie muss T'im Verhältnis zu Gradient Lambda liegen, damit das T'mal Gradient Lambda maximal wird? Na, wenn das T-Dach senkrecht auf Gradient Lambda steht, dann ist es 0. Das ist sicher nicht maximal.
Na, wie wird man es also dann am besten legen, damit es maximal wird? Parallel zu Gradient Lambda. Also diese Größe hier und damit die Änderung des Skalares pro Längeneinheit wird dann maximal sein, wenn dieser Tangentenvektor parallel zu Gradient Lambda ist.
Das heißt aber anders gesagt, dieser Gradienten von Lambda gibt die Richtung, in der sie... der Skalar Lambda maximal ändert. Also man hat einmal eine erste Folgerung.
Der Vektorgradient Lambda ist parallel zu Richtung der maximalen Änderung von Lambda. Die maximale Änderung erreiche ich, wenn das T-Dach parallel zu Gradient Lambda ist. Das heißt, der Gradient gibt diese Richtung der maximalen Änderung an. Der Gradient eines Skalars Lambda ist ein Vektor, der parallel liegt zur Richtung der maximalen Änderung von Lambda. Ja, wir gehen von einem bestimmten skalaren Feld Lambda aus.
Das ist vorgegeben. Und wir legen uns da jetzt so ein kleines Kurvenstück C hinein. Das kann irgendwie liegen.
mal so. Wenn es so liegt, haben wir also da ausgerechnet, dass eben dieses T-Dachgradient Lambda gleich diesem Ausdruck ist. Und dieser Ausdruck ist die Änderung des Kalender.
Polars pro Längeneinheit, weil ich ja durch die Differenz, also durch die Distanz der beiden Punkte voneinander das Delta S durchdividiere. Das T-Dach mal Gradient von dem vorgegebenen Lambda ist die Änderung von Lambda pro Längeneinheit an der Stelle. Und das T-Dach kann ich aber jetzt noch frei wählen. Das kann ich zum Beispiel so wählen, dass es senkrechter ist.
auf dieses Gradient Lambda steht, dann wird diese Änderung null sein. Das heißt, dann wird sich das Skalar gar nicht ändern in Richtung von dem. Wenn also der Gradient senkrecht auf die betrachtete Richtung steht, dann wird sich der Gradient gar nicht ändern.
Am meisten wird er sich ändern, wenn ich dieses t-Dach so lege, es ist ja immer ein Einheitsvektor. dass es parallel zu Gradient Lambda ist. Weil das Skalarprodukt ist Länge des einen mal Länge des anderen mal Cosinus des eingeschlossenen Winkels.
Wenn es parallel ist, ist der Winkel 0 und der Cosinus 1 und damit maximal. Wenn also diese Richtung von den zwei Punkten da, dem Verbindungsvektor da hier, parallel zu Gradient Lambda ist, dann wird diese Größe maximal sein. Und das bedeutet aber dann, dass eben das dann auch die Änderung des Skalares in Richtung von Gradient Lambda ist.
Denn der Gradient Lambda ist parallel zu dem T-Dach und das T-Dach ist parallel zu dem T-Dach. und damit wird das maximal durch Wahl des t'dass es parallel zu Gradient Lambda steht. Dann wird dieses Lambda von p2 minus Lambda von p1 durch Delta S eben maximal werden.
Und daher wird die Richtung von dem Gradientenvektor die Richtung angeben, in der sich der vorgegebenen Skalar Lambda pro Längeneinheit am meisten ändert. Andererseits, wenn man ihn senkrecht dazu stellt, dann gibt es gleich automatisch, dass dann die Änderung gleich 0 ist. Der Gradient Lambda ist senkrecht zur Niveaufläche. von Lambda. Das ist eine Fläche, auf der sich Lambda gar nicht ändert.
Wenn ich das T-Dach senkrecht zu Gradient Lambda stelle, dann ist das 0. Dann ändert sich das Lambda gar nicht. Dann bewege ich mich auf einer Niveaufläche von Lambda, wo sich Lambda gar nicht ändert. Und dann ist es eben senkrecht zu Gradient Lambda.
Oder Gradient Lambda. steht senkrecht auf die Niveaufläche. Ich kann also einerseits sagen, der Gradientenvektor zeigt in die Richtung der maximalen Änderung des Gradients des Skalars Lambda. Das ergibt mir an, in welcher Richtung im Raum sich mein betrachteter Skalar Lambda maximal ändert.
Aber ich kann auch sagen, der Gradientenvektor Lambda steht senkrecht auf die Fläche, wo er sich gar nicht ändert. Senkrecht dazu ändert das sich am meisten. Die Fläche, wo sich das Skalar gar nicht ändert, das ist halt irgendeine Fläche. Senkrecht dazu ändert das sich am stärksten. Null wird das, wenn T-Dach senkrecht auf Gradient Lambda steht.
Maximal wird es, wenn es parallel steht. Beantwortet das die von Ihnen aufgestellte Frage? Okay.
Dann gibt es noch eine sehr schnelle weitere Schlussfolgerung, die sich aus dem unmittelbar ergibt. Eine weitere Folgerung. Wenn wir jetzt annehmen, dass das T-Pfeil, das T-Dach, in Richtung der maximalen Änderung liegt. Wir nehmen an, h'ist in Richtung der maximalen Änderung von Lambda. Wenn das so ist, dann zeigt sich ja, dass das t'mal Gradient Lambda gleich Betrag von t'mal Betrag von Gradient Lambda mal Cosinus von 0 ist 1, bleibt nur stehender Betrag von Gradient Lambda.
Und dann haben wir auf der anderen Seite stehen, eben die Änderung von Lambda pro Längeneinheit in Richtung der maximalen Änderung. Also zusammenfassend, wenn ich einen Skalar-Lambda betrachte, dann kann ich davon den Gradientenvektor ausrechnen, so wie ich das da oben erklärt habe mit Nabla I Lambda. Einerseits gibt die Richtung dieses Gradienten von Lambda an, in welcher Richtung sich diese vorgegebene Skalar am meisten ändert, am stärksten ändert. pro Längeneinheit. Und das ist das, dass der Gradient Lambda parallel ist zur Richtung der maximalen Änderung von Lambda pro Längeneinheit.
Oder auch natürlich steht senkrecht auf die Fläche, wo sich die Fläche der Gradient Lambda auf die Fläche der Gradient Lambda auf die Fläche der Gradient Lambda auf die Fläche der Gradient Lambda auf die Fläche der Gradient Lambda Lambda gar nicht ändert. Quer dazu ändert sich's maximal. Aber andererseits gibt dann der Betrag dieses Gradienten von Lambda an, wie groß nun wirklich die Änderung von Lambda pro Längeneinheit ist in Richtung der maximalen Änderung. Der gibt also an die maximale Änderung des Skalares pro Längeneinheit.
Der Gradientenvektor zeigt die in die Richtung, wo sich das Skalar Lambda maximal ändert. Und der Betrag dieses Gradientenvektors gibt eben genau diese maximale Änderung des Skalares eben in Richtung des Gradienten an. Verständlich?
Bitte? Genau, das haben wir da oben hingeschrieben, das Tangenteneinheitsvektor. Daher ist das T-Dach-Skalar mit Gradient Lambda gleich 1 mal den Betrag von Gradient Lambda und wenn die zwei parallel sind, mal Kosinus von 0. Und daher wird aus dem hier für den Fall, dass T-Dach in Richtung der maximalen Änderung ist, einfach der Gradient, der Betrag.
Und auf der anderen Seite bleibt weiterhin die Änderung von Lambda pro Längeneinheit, aber jetzt in Richtung der maximalen Änderung, weil wir haben das T-Dach parallel zu Gradient Lambda angenommen. Schauen Sie sich das zu Hause noch einmal durch, aber ich glaube, es ist durchaus einfach verständlich. Sie haben einen Skalar, Sie rechnen sich davon den Gradientenvektor aus und dieser Gradient...
Gradientenvektor zeigt Ihnen erstens die Richtung, in der sich das Skalar maximal ändert pro Längeneinheit. Und zweitens die Länge des Gradientenvektors gibt Ihnen noch an, diese maximale Änderung pro Längeneinheit. Also alles, was man gerne über diesen Skalar wissen möchte, der lohnt sich den Gradienten auch auszurechnen.
Dankeschön. Danke.