Orthogonale Funktionenräume
Transcription
Orthogonale Funktionenräume
Orthogonale Funktionenräume Richard Küng ∗ February 27, 2014 Contents 1 Vektorräume mit Skalarprodukt 2 2 Lineare Abbildungen: Matrizen und Operatoren 8 2.1 2.2 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Diagonalisieren von Matrizen . . . . . . . . . . . . . . . . 2.1.2 Selbstadjungierte Abbildungen/Symmetrische Matrizen 8 10 . 10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.2.1 Selbstadjungierte Operatoren . . . . . . . . . . . . . . . . 13 2.2.2 Fallstudie: Der Operator Operatoren L∞ ([−1, 1]) 2.2.3 2.2.4 . . . . . . . . . . . . . . . . . . . . . . . . . . Fallstudie: Der Operator L2 ([0, 2π]) X̂ = x auf dem Funktionenraum der ∆φ := 2π -periodischen Funktionen Fallstudie: Der sphärische Laplaceoperator Vektorraum S2 L2 S 2 . . . . . . . . ∆S 2 14 auf dem der Funktionen auf der Einheitssphäre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Lineare matrix- und operatorwertige Dierentialgleichungen 3.1 Beispiel (matrixwertige DGL): Drei gekoppelte Oszillatoren 3.2 Beispiel (operatorwertige DGL): die Laplacegleichung ∗ e-mail: 13 ∂2 ∂φ2 auf dem Vektorraum [email protected] 1 16 18 . . . 18 . . . . . . 21 1 Vektorräume mit Skalarprodukt In diesem Teilabschnitt rekapitulieren wir kurz das fundamentale Grundkonzept der linearen Algebra (Vektorräume) und führen das in der Geometrie und Physik hochrelevante Konzept eines Vektorraums mit Skalarprodukt ein. Dabei wollen wir uns vorläug auf reelle Vektorräume beschränken. Die komplexe Verallgemeinerung ist jedoch straight-forward. Denition (Vektorraum): V ist eine (meist v ∈ V , welche folgende Ein reeller Vektorraum (VR) unendliche) Menge von Elementen (Vektoren) Eigenschaften erfüllen: v, w ∈ V ⇒ v + w ∈ V, v ∈ V, λ ∈ R ⇒ λv ∈ V. Ein Vektorraum ist also abgeschlossen bezüglich der Addition zweier Elemente und der Streckung/Stauchung derselben. Das klassische Beispiel für einen reellen VR ist Rn mit n∈N beliebig. Interessanterweise haben auch Funktionen eine Vektorraumstruktur, wie das folgende Beispiel erläutert. Beispiel: I ∈ R ein beliebiges Intervall und L (I) die Menge aller Funkf : I → R. Deniert man für beliebige f, g ∈ L (I) Addition und skalare Multiplikation mit λ ∈ R punktweise Es sei tionen (f + g) (x) (λf ) (x) so erhält auch L (I) ∀x ∈ I, := f (x) + g (x) ∀x ∈ I, := λf (x) die Struktur eines Vektorraumes. Diese scheinbar unschuldige Beobachtung erönet ungeahnte Möglichkeiten, da sie es uns erlauben wird, nützliche Vektorraumkonzepte wie Orthogonalität und Basiswahl auf Funktionenräume umzumünzen. Im Folgenden wollen wir daher diese Konzepte kurz rekapitulieren und auf Funktionenräume anwenden. Denition (Basis): Sei v1 , v2 , . . . , vn ∈ V V n Vektoren vi 's linear unabhängig sind ein reeller Vektorraum. Eine Menge von ist eine Basis von V (Minimalität) und sich jeder Vektor falls alle v∈V als Linearkombination dieser Vektoren dargestellt werden kann (Vollständigkeit). Basiselemente hängt nur von V Vollständigkeit bedeutet formal, dass es für jedes gibt, sodass: v= Die Anzahl n der ab und heiÿt dessen Dimension. n X λi (v) vi . v∈V reelle Zahlen λ1 (v) , λ2 (v) , . . . (1) i=1 Informell kann man sich eine Basis als Baukasten vorstellen, mit dessen Hilfe man jedes einzelne Element im Vektorraum zusammenbauen (aufspannen) kann. Es ist leicht einzusehen, dass es im Allgemeinen unendlich viele ver- schiedene Basen eines Vektorraumes gibt. 2 Beispiel: T T Rn mit der Standardbasis e1 = (1, 0, . . . , 0) , e2 = (0, 1, 0, . . . , 0) , . . . , en = T (0, . . . , 0, 1) . Beispiel: Beispiel: R3 mit der Basis T T T v1 = (1, 1, 1) , v2 = (0, 1, 1) , v3 = (0, 0, 1) . L∞ (R)aller reellen Funktionen f : analytischen, i ∞ 2 3 Polynombasis x = 1, x, x , x , . . . . Dieser Vektori=1 Der Vektorraum R→R mit der raum ist oenbar unendlich-dimensional. Deshalb ist es prinzipiell subtil Minimalität und Vollständigkeit der Basis ∞ {xi }i=0 nachzuweisen. Glück- licherweise nimmt uns Taylor's Theorem diese Arbeit ab. Vollständigkeit folgt in der Tat direkt aus dem Konzept einer Taylorreihe. Sei f ∈ L∞ (R) beliebig, dann gilt gemäÿ Taylor f (x) = ∞ ∞ X X d 1 f (y) |y=0 xk = λk (f ) xk k! dy k=0 wobei wir ∀x ∈ R, k=0 λk (f ) := 1 k! d dy f (y) |y=0 deniert haben. Diese Reihen- darstellung entspricht aber gerade einer Basisentwicklung (1) bezüglich i ∞ x i=0 . Intuitiv ist auch klar, dass alle Monome linear unabhängig ∞ {xi }i=0 voneinander sind, und somit minimal ist. Auf einen rigorosen Beweis dieser Tatsache wollen wir hier allerdings verzichten. Beispiel: L∞ ([0, 2π]) aller reellen, analytischen 2π -periodischen ∞ Funktionen f : [0, 2π] → R mit der trignometrischen Basis {1}∪{sin (kx) , cos (kx)}k=1 = {1, cos (x) , sin (x) , cos (2x) , sin (2x) , . . .}. Auch dieser Vektorraum ist unendlichDer Vektorraum dimensional. Vollständigkeit folgt aus Fouriers Theorem, welches besagt, dass sich jede Funktion f ∈ L∞ ([0, 2π]) als Fourierreihe darstellen lässt: ∞ f (x) = X a0 1+ (ak cos (kx) + bk sin (kx)) 2 ∀x ∈ [0, 2π] , (2) k=1 a0 2 = 1 2π 2π f (x) dx, 0 ak = 1 2π 2π f (x) cos (kx) dx, 0 bk = 1 2π 2π f (x) sin (kx) dx. 0 Obwohl die Fourierbasis auf den ersten Blick komplizierter erscheint, als die Polynombasis, ist sie doch in vielerlei Hinsicht netter. Doch um dies präzise zu machen, brauchen wir noch ein weiteres geometrisches Konzept. 3 Denition (Skalarprodukt): h·, ·i : V × V → R dung Sei 1 Abbil- V ein Vektorraum. Eine bilineare ist ein Skalarprodukt, falls sie folgende Eigen- schaften erfüllt: hv, wi = hw, vi hv, vi ≥ 0 hv, vi = 0 ⇔ (symmetrisch), (positiv), v=0 (positiv denit). Jedes Skalarprodukt induziert eine zugehörige Norm p kvk = hv, vi 2 k·k:V →R via ∀v ∈ V. Skalarprodukt und Norm statten einen beliebigen Vektorraum V mit Ge- ometrie aus. Zum Beispiel lassen sich mit ihrer Hilfe Konzepte wie Parallelität und Orthogonalität denieren: Denition (Geometrie): Vektoren v, w Sei V ein Vektorraum mit Skalarprodukt h·, ·i. Zwei sind hv, wi = kvkkwk, parallel, falls hv, wi = 0. orthogonal, falls Zusätzlich nennen wir einen Vektor v∈V normiert, falls kvk = 1. Zwei parallele Vektoren sind klarerweise linear abhängig, wohingegen zwei orthogonale Vektoren linear unabhängig sind. Diese beiden geometrischen Ein- sichten ermöglichen es, besonders nette Basen zu denieren: Denition (orthonormale Basis): von V Sei V ein Vektorraum. Eine Basis ist eine orthonormale Basis (ONB), falls die vi 's {vi }i normiert sind und zueinander orthogonal sind. Konkret bedeutet das: hvi , vj i = 0 für i 6= j 2 hvi , vi i = kvi k = 1 (Orthogonalität), (Normiertheit). Orthonormale Basen vereinfachen die Basisdarstellung von beliebigen Vektoren v∈V beträchtlich, wie das folgende Theorem zeigt. Das macht sie zu besonders nützlichen Werkzeugen im Umgang mit beliebigen Vektorräumen. 1 Bilinear bedeutet linear in beiden Eingängen. Konkret ist h·, ·i bilinear, falls für u, v, w ∈ V und λ, µ ∈ R beliebig gilt: hλu + µv, wi = λhu, wi + µhv, wi und hu, λv + µwi = λhu, vi + µhu, wi. 2 Zur Erinnerung: eine Norm ist eine positive denite Funktion, welche zusätzlich die Dreicksungleichung erfüllt: kv + wk ≤ kvk + kwk 4 ∀v, w ∈ V. Theorem: Sei V ein Vektorraum mit Orthonormalbasis v= X {vi }i . Dann gilt für v ∈V: ein beliebiges Element λi (v) vi λj (v) = hvj , vi ∀j = 1, 2, . . . . mit i Diese Expansionsdarstellung ist zudem eindeutig. Es ist also sehr einfach, die Expansionskoezienten Beweis: Da {vi }i eine Basis von V ist, gilt für X v= λi einer ONB zu bestimmen. v∈V beliebig per Denition λi (v) vi . i Linerität des Skalarprodukts zusammen mit Orthogonalität und Normiertheit von {vi }i garantieren nun zusätzlich hvj , wi = hvj , X λi (v) vi i = X i λi (v) hvi , vj i = λj (v) hvj , vj i = λj (v) i und wir sind fertig. Es ist nun höchste Zeit diese geometrischen Konzepte anhand einiger Beispiele zu erläutern. Beispiel: Rn mit dem Standardskalarprodukt hx, yi = h x1 y1 . . . , . . . xn n X xi yi . i = yn i=1 T T e1 = (1, 0, . . . , 0) , . . . en = (0, . . . , 0, 1) ist das Pan radebeispiel einer ONB für R . Zusätzlich ermöglicht es das Gram-Schmidtsche Orthogonalisierungsverfahren eine beliebige Basis {v1 , . . . , vn } in eine ONB {ṽ1 , . . . , ṽn } zu überführen. Die Standardbasis Beispiel: Der Raum L∞ ([−1, 1]) der analytischen Funktionen f : [−1, 1] → R mit dem Skalarprodukt 1 hf, gi := f (x) g (x) dx. (3) −1 Da dies unsere erste Begegnung mit einem Skalarprodukt auf einem unendlichdimensionalen Vektorraum darstellt, wollen wir uns diesen Fall genauer ansehen und insbesondere nachweisen, dass (3) tatsächlich ein Skalarprodukt ist. Symmetrie ist klar, da 1 hg, f i = 1 f (x) g (x) dx = hf, gi g (x) f (x) dx = −1 −1 5 f, g für beliebige Funktionen wir gilt. Um Positivität nachzuweisen, bemerken 1 hf, f i = 1 −1 für f f 2 (x) dx f (x) f (x) dx = −1 beliebig. Der letzte Ausdruck ist sicher nichtnegativ, da es sich um das Integral einer nicht-negativen Funktion handelt. Positive Deniertheit f ≡ 0 weise 1 f 2 (x) dx = 0 notwendiger−1 verlangt (Cancellations sind bei nicht-negativen Funktio- können wir daraus ebenfalls ableiten, da nen unmöglich). Somit haben wir gezeigt, dass (3) tatsächlich ein valides Skalarprodukt ist. Wir wissen bereits, dass die Polynome nenraumes L∞ (R) [−1, 1] Daher drängt sich die Frage auf, ob ein orthogonales Basissystem ist, oder nicht. Um das zu beant- worten, wählen wir xi , xj 1 i eine Basis des Funktio- darstellen und Einschränken auf das Intervall ändert nichts an dieser Tatsache. i ∞ x i=0 i ∞ x i=0 j 1 i j hx , x i = beliebig und berechnen x x dx = −1 x i+j 1 xi+j+1 |1−1 = dx = i+j+1 −1 Folglich sind xi und xj ( 2 i+j+1 falls 0 falls im Allgemeinen NICHT orthogonal und i+j+1 i+j+1 i ∞ x i=0 is dementsprechend KEINE Orthonormalbasis. Beispiel: L∞ ([0, 2π]) aller reellen, analytischen 2π -periodischen f : [0, 2π] → R mit dem Skalarprodukt Der Vektorraum Funktionen 1 hf, gi := 2π 2π f (x) g (x) dx (4) 0 und der trigonometrischen Basis ∞ {1} ∪ {sin (kx) , cos (kx)}k=1 . Im Gegen- satz zur Polynombasis ist die trigonometrische Basis tatsächlich orthogo- 6 ungerade, gerade. nal. In der Tat, für k, l ∈ N+ beliebig, gilt 2π 2π cos (kx) dx = 1 cos (kx) dx = 2πh1, cos (kx)i = 0 0 2π 2π 2πh1, sin (kx)i = 1 sin (kx) dx = 0 1 1 1 2π = 0, sin (kx) dx = − cos (kx) |0 = − − − k k k 0 2π 2πhcos (kx) , cos (lx)i = 2π cos (kx) cos (lx) dx = 0 = 1 2 1 (cos ((k − l) x) + cos ((k + l) x)) dx 2 0 2π 1 cos ((k − l) x) dx + 2 2π 0 1 1 0 + 0 = 0, 2 2 0 sin (kx) cos (lx) dx = 2πhsin (kx) , cos (lx)i = cos ((k + l) x) dx = 2π 2π 0 0 2π 2π 2πhsin (kx) , sin (lx)i = 1 sin (kx) |2π 0 = 0 − 0 = 0, k sin (kx) sin (lx) dx = 0 1 (sin ((k − l) x) + sin ((k + l) x)) dx = 0, 2 1 (cos ((k − l) x) − cos ((k + l) x)) dx = 0. 2 0 Hier haben wir die trigonometrischen Additionstheoreme verwendet und in den späteren Rechnungen auf die vorhergehenden Resultate zurückgegrien. Um Orthonormalität nachzuweisen, berechnen wir zusätzlich k1k 2 1 = h1, 1i = 2π 2π 1dx = 1, 0 k cos (kx) k 2 = 1 2π 2π 1 cos (kx) dx = 2π 0 k sin (kx) k 2 = 1 2π 2π 2 2π 1 1 (1 + cos (2kx)) dx = (2π + 0) = 1, 2 2π 0 1 sin (kx) dx = 2π 2π 2 0 1 1 (1 − cos (2kx)) dx = (2π + 0) = 1. 2 2π 0 Bezüglich dem Skalarprodukt (4) ist ∞ {1} ∪ {sin (kx) , cos (kx)}k=1 tatsäch- lich eine Orthonormalbasis. Dies ist auch der Grund für den Vorfaktor 1 2π in (4), garantiert er doch Normiertheit der einzelnen Basisfunktionen. Mit diesem Wissen lässt sich die Fourierreihe (2) geometrisch verstehen. Tatsächlich ist sie nichts anderes als das Entwickeln eines Elements 7 f ∈ L∞ ([0, 2π]) f = ∞ X λi (f ) vi = λ0 (f ) + i=1 λ0 (f ) ∞ {1} ∪ {sin (kx) , cos (kx)}k=1 : in der Orthonormalbasis ∞ X (λk (f ) cos (kx) + µk (f ) sin (kx)) , k=1 1 2π = h1, f (x)i = 2π f (x) dx = a0 , 2 0 λk (f ) = 2π 1 hcos (kx) , f (x)i = 2π f (x) cos (kx) dx = ak , 0 µk (f ) 1 = hsin (kx) , f (x)i = 2π 2π f (x) sin (kx) dx = bk . 0 Damit haben wir die Fourierreihe hoentlich entzaubert. Sie ist kein komischer Vodoo-Trick für periodische Funktionen, sondern im Gegenteil lediglich eine weitere Anwendung eines euch wohlvertrauten Konzeptes: Das Entwickeln von Vektoren in einer ONB. 2 Lineare Abbildungen: Matrizen und Operatoren Den Kern dieses Kapitels bildet die folgende Denition. Denition (lineare Abbildung): bildung f : V → W Es seien V, W zwei Vektorräume. Eine Ab- heiÿt linear, falls sie die Vektorraumstruktur er- hält. Konkret bedeutet dies, dass sie Vektoren f (v) = w ∈ W v∈V wieder auf Vektoren abbildet: f (v1 + v2 ) f (λv) = f (v1 ) + f (v2 ) = ∀v1 , v2 ∈ V, ∀v ∈ V, ∀λ ∈ R. λf (v) Für unsere Zwecke ist diese Denition ein bisschen zu allgemein. uns daher auf Selbstabbildungen 2.1 Es sei f :V →V Wir wollen beschränken. Matrizen V ein endlich-dimensionaler Vektorraum mit Basis Abbildung f : V → V n {vi }i=1 . Eine lineare lässt sich durch ihre Wirkung auf diese Basisvektoren vollständig charakterisieren. Wegen der denierenden Eigenschaft einer Basis lässt sich nämlich jeder Vektor v ∈ V als Linearkombination v = Pn i=1 λi v i darstellen. Zusammen mit den fundamentalen Eigenschaften einer linearen Abbildung gilt also: f (v) = f n X ! λi v i i=1 = n X i=1 8 λi f (vi ) . f durch ihr Transformationsvern Basiselement wi = f (vi ) ∈ V vollständig charakterisiert! n Entwickeln wir diese wi ∈ V wieder bezüglich der Basis {vi }i=1 , lässt sich dieses Somit ist die Wirkung der linearen Abbildung halten bezüglich der Transformationsverhalten besonders ökonomisch niederschreiben: 1. Bezüglich der Basis n {vi }i=1 lässt sich jeder Vektor v ∈ V T als Zahlenarray (λ1 , . . . , λn ) darstellen. f 2. Die lineare Abbildung Vektor überträgt jeden Basisvektor vi ∈ V auf einen wi = f (vi ) ∈ V . 3. Erneut lässt sich jeder solche Vektor Pn j=1 wji vj wi ∈ V wi = T (wi1 , . . . , win ) . als Linearkombination darstellen und entspricht somit dem Zahlenarray 4. Kombiniert man diese Basisentwicklungen erhalten wir folgende Matrix und das vertraute Vektor-Matrix-Zusammenspiel: w11 w21 f (v) = . .. wn1 w12 w22 ··· .. wn2 . ··· Pn w1n λ1 i=1 λi w1i w2n .. . . . = . . . . Pn . λn λ w i=1 i 1i wnn Unsere Matrix gibt also tatsächlich das exakte Verhalten der linearen Abbildung f wieder. Allerdings hängt sie essentiell von der gewählten Basis ab! Die lineare Abbildung selbst ist natürlich basisunabhängig. Nota Bene: Das Konzept einer linearen Abbildung ist eindeutig. Ihre Darstel- lung als Matrix ist es jedoch nicht (es gibt i.A. unendlich viele verschiedene Matrizen, welche dieselbe lineare Abbildung darstellen). f :V →V dim V = n) einen Vektorraum bilden. Diesen bezeichnen wir als B (V ) (den Raum der linearen Abbildungen von V nach V ). Es ist leicht einzusehen, dass Matrizen von reellen Selbstabbildungen (mit Denition (Äquivalenz von Matrizen): Zwei Matrizen sind äquivalent, falls eine invertierbare Matrix B X, Y ∈ Mn×n (R) existiert, sodass X = BY B −1 (5) gilt. Zwei äquivalente Matrizen beschreiben dieselbe Selbstabbildung f : V →V. Der Grund für diese Denition sollte einleuchten. Eine beliebige invertierbare Matrix B beschreibt nämlich (eindeutig) einen Basiswechsel in (5) verlangt somit, dass sich Y durch einen Basiswechsel in 9 X V. Bedingung überführen lässt. 2.1.1 Diagonalisieren von Matrizen Es sei V ein n-dimensionaler (endlicher) Vektorraum. Eine diagonalisierbar, falls sie äquivalent zu einer Diagonalmatrix ist, d.h. falls es eine invertierbare n × n-Matrix n × n-Matrix M ist D = diag (λ1 , . . . , λn ) gibt, welche M = BDB −1 λi 's garantiert. Bis auf Vertauschen der ist diese Matrix eindeutig. Nicht jede Matrix ist diagonalisierbar, ein Gegenbeispiel ist durch M= 0 0 1 0 gegeben. Mit unserer Interpretation von Matrizen als Manifestierung von linearen Abbildung lässt sich die Diagonalisierung einer Matrix auf anschauliche Art interpretieren: n Die invertierbare Matrix n {ei }i=1 → {bi }i=1 . lineare Abbildung f B entspricht einer Basiswechselmatrix Bezüglich dieser neuen Basis ist die zugrunde liegende durch die Diagonalmatrix D (f ) = diag (λ1 , . . . , λn ) voll- ständig charakterisiert. Insbesondere bedeutet dies, dass f (b1 ) = λ1 0 .. . 0 λn 1 0 .. = λ1 b1 , . 0 . . . f (bn ) = λ1 0 .. . 0 Die lineare Abbildung sich selbst ab. f λn 0 . .. 0 1 bildet somit die Vektoren = λn bn . bi ∈ V auf ein λi -faches von Aber das ist genau die formale Denition von Eigenwert und zugehörigem Eigenvektor! lineare Abbildung f f eine lineare bi ∈ V sind somit Darüber hinaus ist damit basisunabhängig. Die Eigenvektoren Abbildung und direkt über die und nicht über eine explizite Matrixdarstellung deniert! Somit sind sie genau wie die lineare Abbildung basisunabhängig (das sollten sie auch sein, da sie fundamental Elementen des Vektorraums V entsprechen und solche immer basisunabhängig sind). Nota Bene: Eigenvektoren und Eigenwerte einer Matrix sind basisunabhängige Entitäten der der Matrix zugrundeliegenden linearen Abbildung (vgl. Fixpunkte). 2.1.2 Selbstadjungierte Abbildungen/Symmetrische Matrizen V ein (endlicher) n-dimensionaler h·, ·i : V × V → R. Es sei nun 10 Vektorraum mit Skalarprodukt Denition (selbstadjungierte Abbildung): Eine lineare Abbildung f ∈ B (V ) ist selbstadjungiert (s.a.), falls hv, f (w)i = hf (v) , wi ∀v, w ∈ V (6) gilt. Hat f bezüglich einer beliebigen Basis die Matrixdarstellung A ∈ Mn×n (R), so ist die denierende Eigenschaft (6) äquivalent zu AT = A. Somit liegen den euch wohlvertrauten symmetrischen Matrizen selbstadjungierte Abbildungen zugrunde. Auf einen Beweis dieser Äquivalenz wollen wir hier verzichten (er ist ziemlich straight forward). Selbstadjungierte Abbildungen sind in vielerlei Hinsicht besonders nett, wie das folgende Theorem zeigt. Theorem: Es sei f ∈ B (V ) eine selbstadjungierte Abbildung. Dann sind die λ1 , . . . , λn reell und die zugehörigen Eigenvektoren können Eigenwerte von orthonormal zueinander gewählt werden. Dass die Eigenwerte einer reellen Matrix reell sind mag banal klingen, ist es A den pA (x) = det (A − xI) entsprechen. aber nicht. Ihr wisst, dass die Eigenwerte einer Matrix Nullstellen des charakteristischen Polynoms Allerdings gibt es durchaus reelle Polynome welche komplexe Nullstellen haben, z.b x2 + 1 . p (x) = Folgerichtig hat eine reelle Matrix nicht zwingend reelle Eigenwerte! Beweis: Für den Beweis, dass die Eigenwerte reell sind, brauchen wir einen komplexen Vektorraum V mit sesquilinearem Skalarprodukt. Das ist weit- ers kein Problem, da sich jede reelle lineare Abbildung in einen komplexen Vektorraum einbetten lässt. Für ein komplexes Skalarprodukt gilt hv, wi = hw, vi v, w ∈ V für Eigenvektor zum Eigenwert λi beliebig. Es sei nun λi . bi ∈ V ein normierter Dann gilt = λi hbi , bi i = hbi , λi bi i = hbi , f (bi )i = hf (bi ) , bi i = hλi bi , bi i = hbi , λi bi i = λ̄i hbi , bi i = λ̄i . Somit muss λ̄i = λi gelten, was nur für reelle Zahlen möglich ist. Um Orthonormalität der Eigenvektoren zu zeigen, nehmen wir zunächst an, dass bi und bj Eigenvektoren von verschiedenen Eigenwerten λi 6= λj sind. Da die Eigenwerte zudem reell sind, folgern wir λi hbi , bj i = hλi bi , bj i = hf (bi ) , bj i = hbi , f (bj )i = hbi , λj bj i = λj hbi , bj i. Das impliziert (λi − λj ) hbi , bj i = 0 und wegen λi 6= λj muss somit hbi , bj i = 0 gelten. Nun bleibt nur noch der Spezialfall von degenierierten Eigenwerten (d.h. Eigenwerte mit mehr 11 als einem zugehörigen Eigenvektor) zu behandeln. degenierter Eigenwert (falls es ihn gibt) und Es sei b01 , . . . b0s λi ein s-fach alle zugehörigen Eigenvektoren. Dann gilt oenbar für beliebige Linearkombinationen v0 = Ps 0 i=1 νi bi : 0 f (v ) = f s X ! νi b0i s X = i=1 i=1 νi f (b0i ) = λi s X νi b0i = λi v 0 . i=1 Beliebige Linearkombinationen von Eigenvektoren mit demselben Eigenwert sind also wieder Eigenvektoren zum selben Eigenwert. Diese Freiheit erlaubt es uns nun aber das Gram-Schmitt-Verfahren anzuwenden und somit die Eigenvektoren 2.2 b01 , . . . b0s zu orthonormalisieren. Operatoren Bislang haben wir uns mit linearen Abbildungen auf endlichen Vektorräumen beschäftigt und ihre Darstellung als Matrizen rekapituliert. In diesem Kapitel wollen wir uns auf lineare Abbildungen auf unendlich-dimensionalen Vektorräumen stürzen. Diese werden gemeinhin als Operatoren bezeichnet und mit einem Dach ˆ über dem Ausdruck gekennzeichnet. Das Grundkonzept lineare Abbildungen bleibt dabei unverändert (die Denition am Beginn dieses Kapitels ist agnostisch bezüglich der Dimension des Vektorraumes V ). Da wir jedoch mit dem Operatorkonzept das Regime der linearen Algebra verlassen, wollen wir zunächst einige für die Physik hochrelevant Beispiele bringen: • Der Operator X̂ : f 7→ xf (x) (punktweise) auf dem Funktionenraum L0 (R). Dieser Operator ist oensichtlich linear,da für f (x) , g (x) ∈ L0 (R) und λ ∈ R beliebig gilt: X̂ (f + g) (x) = x (f (x) + g (x)) = xf (x) + xg (x) = X̂f (x) + X̂g (x) , X̂ (λf ) (x) = xλf (x) = λxf (x) = λ X̂ (f ) (x) ∀x ∈ R. • d ∞ dx auf dem Funktionenraum L (R). Auch dieser 0 Operator ist linear, da da für f (x) , g (x) ∈ L (R) und λ, µ ∈ R beliebig Der Operator D̂ := gilt: D̂ (λf + µg) (x) d d d (λf (x) + µg (x)) = λ f (x) + µ g (x) dx dx dx = λD̂ (f ) (x) + µD̂ (g) (x) ∀x ∈ R. = Die Notation mag hier zunächst verwirrend sein, konzeptionell gilt jedoch ein- f mit x und bildet xf (x) ∀x ∈ R ab. Zudem erhält er die Vektorraumstruktur, da Multiplikation mit x linear ist. Ähnliches gilt für den 0 0 0 Ableitungsoperator D̂ , da ableiten ebenfalls linear ist ((f + g) = f + g ). fach: Der Operator X̂ multipliziert eine beliebige Funktion sie somit wieder auf eine Funktion 12 Zudem machen Konzepte wie Eigenwerte und Eigenvektoren (Eigenfunktionen) für Operatoren Sinn. Das liegt daran, dass sie fundamentale Eigenschaften dieser linearen Abbildung sind und Operatoren sind nichts anderes als lineare Abbildungen. eλx ∈ L∞ (R) Eigenwert λ ist: Zum Beispiel ist es leicht einzusehen, dass Eigenfunktion des Operators D̂ mit zugehörigem D̂ (ex ) = eine d λx e = λex . dx Diesen Linear-Algebra-Approach für Operatoren wollen wir im Folgenden beträchtlich vertiefen. Vorschau: In der Quantenmechanik (Schrödinger-approach) sind Operatoren von fundamentaler Bedeutung. Die euch aus der Hamiltonischen Mechanik q und p werden in der QuanX̂ = x und P̂ = −i~∇ auf Hilberträu- wohlvertrauten Orts- und Impulskoordinaten tenmechanik durch lineare Operatoren men (komplexer Vektorraum mit Skalarprodukt) ersetzt. 2.2.1 Selbstadjungierte Operatoren Es sei nun V ein unendlich-dimensionaler Vektorraum mit V × V → R. Wir bezeichnen einen Operator Ô ∈ B (V ) Skalarprodukt h·, ·i : als selbstadjungiert, falls er Bedingung (6) erfüllt, also: hf, Ô (g)i = hÔ (f ) , gi ∀f, g ∈ V. Ähnlich wie symmetrische Matrizen, haben auch selbst-adjungierte Operatoren tolle Eigenschaften. Tatsächlich gilt obiges Theorem auch für Operatoren. Das kann man zum Beispiel daran erkennen, dass wir im Beweis nie Endlichdimensionalität des zugrundeliegenden Vektorraumes gebraucht haben. Allerdings kann diese Unendlichkeit durchaus zu subtilen Problemen führen. Ich möchte hier allerdings nicht näher darauf eingehen und verweise auf Standardvorlesungen in Funktionalanalysis. Nichtsdestotrotz gilt: Theorem: Es sei Ô ∈ B (V ) eine selbstadjungierte Abbildung. Dann sind λ1 , . . . , λn reell und die zugehörigen Eigenfunktionen die Eigenwerte von können orthonormal zueinander gewählt werden. Wir wollen uns nun mit ein paar besonders wichtige selbst-adjungierte Operatoren beschäftigen 2.2.2 Fallstudie: Der Operator X̂ = x L∞ ([−1, 1]) auf dem Funktionenraum Im vorigen Kapitel haben wir bereits das Skalarprodukt 1 hf, gi = f (x) g (x) dx −1 13 auf L∞ ([−1, 1]) eingeführt. Bezüglich diesem Skalarprodukt ist X̂ selbstad- jungiert, da 1 hX̂ (f ) , gi = 1 f (x) xg (x) dx = hf, X̂ (g)i. xf (x) g (x) dx = −1 Somit wissen wir, dass −1 X̂ nur reelle Eigenwerte hat und seine Eigenfunktionen orthonormal zueinander gewählt werden können. Allerdings wollen wir uns hier nicht mit dem expliziten Suchen nach unendlich (!!!) vielen Eigenwerten und Eigenfunktionen aufhalten. Anstatt dessen bemerken wir, dass für ein beliebiges Monom xk gilt: X̂ xk = xxk = xk+1 . i ∞ X̂ Monome auf Monome ab und bezüglich der Standardpolynombax i=0 können wir X̂ formal als unendlich-dimensionale Matrix darstellen: Somit bildet sis ··· 0 0 1 . X̂ = .. ··· 1 0 . . . .. .. . . . Klarerweise ist diese Matrix nicht diagonal (die Monome sind ja keine Eigenfunktionen von X̂ ). Diese Äquivalenz von Operatoren und unendlich-dimensionalen Matrizen kann präzise gemacht werden und schlägt eine Brücke zwischen der Schrödingerschen und der Heisenbergschen Quantenmechanik. Heisenbergs Approach zur Quantenmechanik beruht nämlich auf derartigen unendlich-groÿen Matrizen! ∂ auf dem Vektorraum L2 ([0, 2π]) 2.2.3 Fallstudie: Der Operator ∆φ := ∂φ der 2π-periodischen Funktionen 2 2 Zu diesem Vektorraum haben wir bereits das Skalarprodukt 2π hf, gi = f (φ) g (φ) dφ 0 eingeführt. Bezüglich dieses Skalarprodukts ist der Operator Um das zu sehen, wählen wir 2 ˆ φ selbstadjungiert. ∆ f, g ∈ L ([0, 2π]) beliebig und integrieren zweimal 14 partiell: 2π hf, ∆φ gi = f (φ) 2π ∂2 g (φ) dφ = f (φ) g 00 (φ) dφ ∂φ2 0 0 2π = f (φ) g 0 (φ) |2π 0 − f 0 (φ) g 0 (φ) dφ 0 2π 0−f = 0 (φ) g (φ) |2π 0 f 00 (φ) g (φ) dφ + 0 2π = 0+ ∂2 f (φ) g (φ) dφ = h∆φ f, gi. ∂φ2 0 Hier haben wir verwendet, dass sich aufgrund der Periodizität von jeweiligen Randterme gegenseitig aufheben. f und Aus dem Wissen, dass ∆φ g die kön- nen wir sofort folgern, dass seine Eigenwerte reell sind und die Eigenfunktionen orthonormal zueinander gewählt werden können. Dies hat weitreichende Konsequenzen, da wir einige Eigenfunktionen von ∆φ bereits kennen! Einmal mehr handelt es sich dabei um die trigonometrische Basis ∆φ 1 = 0 ⇒ 1 ∞ {1}∪{cos (kφ) , sin (kφ)}k=1 : ist eine EF mit EW 2 0, ∆φ cos (kφ) = −k cos (kφ) ⇒ cos (kφ) ist eine EF mit EW − k2 , ∆φ sin (kφ) = −k 2 sin (kφ) ⇒ sin (kφ) ist eine EF mit EW − k2 . ∆φ , ∞ {1} ∪ {cos (kφ) , sin (kφ)}k=1 Tatsächlich sind dies alle Eigenfunktionen von da die trigonometrischen Funktionen eine Basis darstellen und somit den gesamten L2 ([0, 2π]) aufspannen. Zudem können wir Orthonormalität der trigonometrischen Basis mit unseren advanced tools viel cleverer beweisen. Schlieÿlich wissen wir ja bere- its, dass Eigenfunktionen selbstadjungierter Operatoren automatisch orthogonal zueinander sind, wenn sie verschiedene Eigenwerte haben. Daraus könnnen wir folgende Orthogonalitätsrelationen bequem ableiten: h1, cos (kφ)i = 0 ∀k ≥ 1, h1, sin (kφ)i = 0 ∀k ≥ 1, hcos (kφ) , cos (lφ)i = 0 ∀k 6= l, hcos (kφ) , sin (lφ)i = 0 ∀k 6= l, hsin (kφ) , sin (lφ)i = 0 ∀k 6= l. Somit müssen wir einzig und alleine cos (kφ) sind. und sin (kφ) hcos (kφ) , sin (kφ)i = 0 noch herleiten, da Eigenfunktionen mit gleichem Eigenwert (nämlich Abschlieÿend wollen wir noch erwähnen, dass sich 15 ∆φ −k 2 ) bezüglich der trigonometrischen Basis als folgende unendlichdimensionale Matrix schreiben lässt: 0 0 1 ∆φ = − . 1 4 4 9 9 .. 0 . Im Gegensatz zur vorigen Fallstudie, ist diese Matrix nun diagonal. Das verwundert nicht weiter, da wir für die Darstellung die zugehörige Eigenbasis verwendet haben. 2.2.4 Fallstudie: Der sphärische Laplaceoperator ∆S auf dem Vektorraum L2 S 2 der Funktionen auf der Einheitssphäre S 2 2 Hier wollen wir uns dem sphärischen Laplaceoperator 1 ∂ ∂ 1 ∂2 sin θ + sin θ ∂θ ∂θ sin2 θ ∂φ2 S 2 = x ∈ R3 : kxk22 = 1 widmen. ∆S 2 = auf der Einheitssphäre Kugelkoordinaten θ, φ Wählen wir die für das Parametrisieren von Funktionen auf der Sphäre, so macht folgende Denition eines Skalarproduktes Sinn: π 2π hf, gi := f (θ, φ) g (θ, φ) sin θdθdφ. 0 0 Es sollte oensichtlich sein, dass es sich dabei um ein valides Skalarprodukt ∆S 2 bezüglich dieses f, g ∈ L2 S 2 beliebig: handelt. Zusätzlich ist In der Tat gilt für π 2π hf, ∆S 2 gi = = Skalarproduktes selbstadjungiert. ∂g (θ, φ) 1 ∂ 2 g (θ, φ) + sin θdφdθ ∂θ sin2 θ ∂φ2 0 0 2π π 2π π 2 ∂ ∂g (θ, φ) 1 ∂ g (θ, φ) f (θ, φ) f (θ, φ) sin θ dθ dφ + dφ dθ. ∂θ ∂θ sin θ ∂φ2 f (θ, φ) 0 1 ∂ sin θ ∂θ sin θ 0 0 0 Im zweiten Integral können wir nun zweimal partiell integrieren und die Ableitung von wegen der g auf f φ- schieben. Dabei verschwinden die auftretenden Randterme 2π -Periodizität der Funktionen in φ. Im ersten Teil vernachlässigen φ-Integration und integrieren ebenfalls zweimal partiell über wir fürs erste die 16 θ: π ∂ f (θ, φ) ∂θ ∂g (θ, φ) sin θ ∂θ dθ 0 ∂g (θ, φ) θ=π = f (θ, φ) sin θ |θ=0 − ∂θ π sin (θ) ∂f (θ, φ) ∂g (θ, φ) dθ ∂θ ∂θ 0 = ∂f (θ, φ) g (θ, φ) |πθ=0 + 0 − sin (θ) ∂θ π ∂ ∂θ sin (θ) ∂f (θ, φ) ∂θ g (θ, φ) dθ 0 π = 1 ∂ sin θ ∂θ sin (θ) ∂f (θ, φ) ∂θ g (θ, φ) dθ. 0 Hier verschwinden die Randterme wegen sin (0) = sin (π) = 0. Fügen wir diese Resultate wieder zusammen, erhalten wir somit tatsächlich: 2π 2 1 ∂ g (θ, φ) f (θ, φ) dθ dφ + dφ dθ sin θ ∂φ2 0 0 0 0 2π 2π π π 2 1 ∂ ∂f (θ, φ) 1 ∂ f (θ, φ) sin (θ) g (θ, φ) dθ dφ + g (θ, φ) dφ dθ sin θ ∂θ ∂θ sin θ ∂φ2 2π π hf, ∆S 2 gi = = 0 = ∂ f (θ, φ) ∂θ ∂g (θ, φ) sin θ ∂θ π 0 0 0 h∆S 2 f, gi. Da wir soeben bewiesen haben, dass ∆S 2 selbstadjungiert ist, können wir sofort auf reelle Eigenwerte und orthogonale Eigenfunktionen schlieÿen. Operator so wichtig ist, sind diese selbstverständlich bekannt. Da dieser Allerdings ist der Diagonalisierungsaufwand beträchtlich und wir wollen uns daher damit begnügen, die Resultate aufzuzählen: • ∞ ∆S 2 entsprechen {−l (l + 1)}l=0 = {0, −2, −6, . . .}. Dabei ist der Eigenwert −l (l + 1) (2l + 1)-fach entartet. Für jedes −l (l + 1) gibt es somit (2l + 1) verschiedene Eigenfunktionen, welche orthogonal Die Eigenwerte von zueinander gewählt werden können. • {Ylm (θ, φ) : l ∈ N, −l ≤ m ≤ l} sind die EigenKonkret gilt für l ∈ N beliebig: Die Kugelächenfunktionen funktionen von ∆S 2 . ∆S 2 Ylm (θ, φ) = −l (l + 1) Ylm (θ, φ) Somit codiert der Sux perscript m l ∀ − l ≤ m ≤ l. −l (l + 1). Das Su(2l + 1) verschiedene den zugehörigen Eigenwert rangiert zwischen −l und l und labelt Eigenfunktionen zu betreendem Eigenwert (das entspricht genau der (2l + 1)-fachen Entartung des Eigenwertes −l (l + 1)). Diese Eigenfunk- tionen sind zudem so konstruiert, dass sie orthogonal zueinander stehen 17 (vgl. Gram-Schmitt). Konkret gilt also für 0 hYlm , Ylm i = 0 für l∈N beliebig: m 6= m0 . Mit unserem Theorem über selbstadjungiere Operatoren können wir zudem sofort folgern, dass 0 i=0 hYlm , Ylm 0 für l 6= l0 0 l0 6= l Ylm und Ylm 0 0 0 (−l (l + 1) 6= −l (l + 1)). gelten muss. Schlieÿlich sind für schiedenen Eigenwerten Nota Bene: m's Eigenfunktionen zu ver- Bei den Kugelächenfunktionen ist Orthogonalität für verschiedene konstruiert (vgl. Gram-Schmitt), Orthogonalität für verschiedene jedoch eine fundamentale Eigenschaft des Operators l's ∆S 2 ! Daraus schlieÿen wir, dass die Kugelächenfunktionen eine orthogonale Funktionenfamilie darstellen.Tatsächlich sind sie sogar eine orthogonale Funktionenbasis. Minimalität folgt aus der Orthogonalität, wohingegen Vollständigkeit subtiler ist. Auf einen Beweis dieser Tatsache wollen wir hier allerdings nicht näher eingehen. 3 Lineare matrix- und operatorwertige Dierentialgleichungen Dieses Kapitel bildet den Abschluss und Höhepunkt unserer Abhandlung über unendlich-dimensionale Vektorräume und lineare Operatoren. Dabei wollen wir uns zunächst auf matrixwertige Dierentialgleichungen fokussieren und Lösungsmethoden rekapitulieren. Anschlieÿend benützen wir die take-home message Funktionenräume sind unendlichdimensionale Vektorräume und lineare Operatoren unendlichdimensionale Matrizen um unser Wissen über Matrixdierentialgleichungen dahingehend zu verwenden, mehrdimensionale Dierentialgleichungen zu lösen. 3.1 Beispiel (matrixwertige DGL): Drei gekoppelte Oszillatoren Hier wollen wir uns auf ein konkretes Beispiel einer gewöhnlichen lineare matrixwertigen Dierentialgleichung beschränken. Für eine genauere Studie dieser Konzepte verweise ich auf meine Notiz Dierentialgleichungen und Matrizen, welches auf meiner Homepage verfügbar ist. Das folgende Beispiel ndet sich ebenfalls dort. Wir betrachten 3 gekoppelte harmonische Oszillatoren mit gleicher Masse m und identischer Federkonstante Fetscher, ETH Zürich 2007). k (vgl. Beispiel 9.7.2 im Script von Wulf Wir bezeichnen die zeitabhängige Auslenkung 18 des jeweiligen Oszillators aus der Ruhelage mit xi (t) (i = 1, 2, 3) und betra- chten alle drei Auslenkungen yusammen als einen Auslenkungsvektor T (x1 (t) , x2 (t) , x3 (t)) ∈ R3 . T ~x (t) = Mit dem Hooke'schen Gesetz ergeben sich folgende Bewegungsgleichungen: mẍ1 = k (x2 − x1 ) , mẍ2 = −k (x2 − x1 ) + k (x3 − x2 ) , = −k (x3 − x1 ) . p Mithilfe der Denition ω := k/m (Eigenfrequenz) ist dieses Gleichungssystem mẍ3 äquivalent zu folgender Matrixgleichung: ¨ (t) + ω 2 A~x (t) = 0, ~x mit 1 A = −1 0 0 −1 1 −1 2 −1 (7) Abgesehen von der Matrix sieht diese Dierentialgleichung wie die gewöhnliche Gleichung des harmonischen Oszillators aus. Tatsächlich lässt sie sich in eine solche überführen, wenn wir die Struktur der Matrix ausnützen. Diese ist nämlich oenbar symmetrisch und ist somit bezüglich einer Orthogonalbasis aus Eigenvektoren diagonalisierbar. vektoren mit ~vj Bezeichnen wir diese (orthonormalen) Eigen- und die assoziierten (reellen) Eigenwerte mit λj (j = 1, 2, 3), so macht es aus strukturellen Gründen Sinn folgenden Ansatz zu wählen: ~xj (t) := fj (t) ~vj , wobei f (t) eine beliebige (2mal stetig dierenzierbare) skalare Funktion beze- ichnet. Einsetzen dieses Ansatzes in (7) zeigt sofort die Kraft dieses Ansatzes. Tatsächlich gilt 0 ¨j (t) + ω 2 A~xj (t) = ~x = f¨j (t) ~vj + ω 2 fj (t) A~vj = f¨j (t) ~vj + ω 2 fj (t) λj ~vj = f¨j (t) + ω 2 λj fj (t) ~vj . Aufgrund der letzten Zeile ist diese Gleichung äquivalent zu f¨j (t) + ωj2 fj (t) = 0, wobei wir ωj := p λj ω deniert haben. Das ist nun aber tatsächlich die Stan- dardgleichung eines harmonischen Oszillators und folglich gilt: fj (t) = aj cos (ωj t) + bj sin (ωj t) , sowie ~xj (t) = fj (t) ~vj = (aj cos (ωj t) + bj sin (ωj t)) ~vj 19 i = 1, 2, 3. Nun wissen wir aber auch, dass die allgemeine Lösung einer beliebigen linearen Dierentialgleichung einer Linearkombination aller möglichen Lösungen entspricht. In unserem Fall bedeutet das: ~xallg (t) = 3 X (aj cos (ωj t) + bj sin (ωj t)) ~vj . j=1 Doch damit noch nicht genug! Die Tatsache, dass die ~vj 's orthonormal zueinan- der gewählt werden können, vereinfacht das Anpassen dieser allgemeinen Lösung an Randbedingungen ungemein. Um das zu illustrieren, nehmen wir folgende Randbedingung an: ~x (0) = ~c, ˙ x = 0. ~ (0) Daraus folgt sofort, dass bj = 0 für alle j = 1, 2, 3 gelten muss und somit verlangt die erste Gleichung ~x (0) = 3 X aj cos (ωj 0) ~vj = j=1 R aj ~vj = ~c. j=1 Allerdings können wir nun benützen, dass 3 3 X 3 {~vj }j=1 eine Orthonormalbasis von is und somit insbesondere gilt: ~c = 3 X h~vj , ~ci~vj . j=1 Ein Koezientenvergleich zeigt somit ~x (t) = aj = h~vj , ~ci und folglich gilt 3 X h~vj , ~ci cos (ωj t) ~vj . j=1 Um das Ganze etwas greifbarer zu machen, erwähnen wir noch, dass die Matrix A folgende Eigenwerte und Eigenvektoren hat: λ1 = 0, λ2 = 1, λ3 = 3, 1 T ~v1 = √ (1, 1, 1) , 3 1 T ~v2 = √ (1, 0, −1) , 2 1 T ~v3 = √ (1, −2, 1) . 4 Somit gilt für die konkrete allgemeine Lösung: 1 1 ~xallg (t) = (a1 + b1 t) 1 + (a2 cos (ωt) + b2 sin (ωt)) 0 1 −1 1 √ √ 3ωt + b3 sin 3ωt −2 . + a3 cos 1 20 In physikalischem Sinne hat jeder dieser Eigenvektoren eine Interpretation als jeweilige Eigenmode wir wollen hier aber nicht weiter auf diese Interpretation eingehen. 3.2 Beispiel (operatorwertige DGL): die Laplacegleichung Dieses Beispiel bildet den Höhepunkt dieses Manuskripts. Wir wollen uns dabei endlich auf das Lösen der Laplacegleichung ∆x,y,z f (x, y, z) = ∂2 ∂2 ∂2 + 2+ 2 2 ∂x ∂y ∂z f (x, y, z) = 0 stürzen, welche in der Elektrostatik von entscheidender Bedeutung ist. Weit weg von einer beliebigen Ladungsverteilung muss diese Gleichung stets gelten. Zudem sieht jede Ladungsverteilung von groÿer Distanz wie eine Punktladung aus. Es macht daher Sinn zusätzlich eine Kugelsymmetrie anzunehmen und die sphärische Laplacegleichung ∆r,θ,φ f (r, θ, φ) = 0 zu betrachten. Hier bezeichnet ∆r,θ,φ mit ∆S 2 1 ∂ = 2 r ∂r ∂ r ∂r 2 + 1 ∆S 2 r2 den sphärischen Laplaceoperator 1 ∂ sin θ ∂θ ∂ sin θ ∂θ + ∂2 1 einen selbstadjungierten Operator auf dem Vektorraum aller Funksin2 θ ∂φ2 2 tionen auf der Sphäre S , den wir bereits aus unserem letzten Kapitel kennen. Der oben angedeuteten Aufteilung in Radialkoordinate naten θ, φ r und Winkelkoordi- wollen wir durch einen Separationsansatz von der Form f (r, θ, φ) = R (r) Θ (θ, φ) Folge leisten, wobei R : ]0, ∞[ → R und Θ : S2 → R beliebige 2mal dierenzier- bare Funktionen darstellen. Setzen wir diesen Ansatz in die Laplacegleichung ein, erhalten wir ∆r,θ,φ R (r) Θ (θ, φ) = Θ (θ, φ) ∂ r2 ∂r R (r) ∂ r2 R (r) + 2 ∆S 2 Θ (θ, φ) = 0. ∂r r r2 liefert dann ∂ 2 ∂ r R (r) Θ (θ, φ) + R (r) ∆S 2 Θ (θ, φ) = 0. ∂r ∂r Multiplizieren mit (8) Hier lohnt es sich kurz innezuhalten und sich der Ähnlichkeiten dieser Gleichung zur Matrixdierentialgleichung im letzten Beispiel gewahr zu werden. Θ (θ, φ) als unendlich-dimensionalen Vektor ∆S 2 als unendlichdimensionale Matrix auassen können. Der Funktion R (r) kommt folglich die Rolle der skalaren Funktion f (t) im vorigen Beispiel Wir wissen, dass wir moralisch und zu. Konsequenterweise haben wir es hier quasi mit einer gewöhnlichen lin- earen DGL in R (r) und einer Matrixgleichung in 21 Θ (θ, φ) zu tun. Aus dem vorigen Beispiel wissen wir, dass sich letztere durch einen schlauen Ansatzvektor nämlich einen Eigenvektor der betreenden Matrix gut in den Gri bekommen lässt. Wir machen von dieser Intuition Gebrauch und setzen R (r) Θ (θ, φ) := Rl (r) Ylm (θ, φ) l ∈ N, m ∈ [−l, l] , da wir bereits aus dem vorigen Kapitel wissen, dass des Operators ∆S 2 Ylm (θ, φ) eine Eigenfunktion ist. Konkret gilt ∆S 2 Ylm (θ, φ) = −l (l + 1) Ylm (θ, φ) . Einsetzen dieser Tatsache in (8) liefert somit ∂ ∂ r2 Rl (r) Ylm (θ, φ) + Rl (r) ∆S 2 Ylm (θ, φ) ∂r ∂r ∂ ∂ r2 Rl (r) − l (l + 1) Rl (r) Ylm (θ, φ) . = ∂r ∂r 0 = Genau wie im Matrixfall ist dise DGL somit äquivalent zu folgender homogoner linearen und vor allem skalaren Dierentialgleichung: ∂ 0= ∂r 2 ∂ r Rl (r) − l (l + 1) Rl (r) . ∂r Wie ihr bereits wisst, lässt sich eine derartige Dierentialgleichung oft durch einen Ansatz der Form Rl (r) = crk mit k∈N 0 lösen. Das ist auch hier der Fall. Tatsächlich folgt aus = ∂ ∂r ∂ k 2 ∂ cr − l (l + 1) crk = c krk+1 − l (l + 1) crk r ∂r ∂r = c (k + 1) krk − cl (l + 1) rk = c ((k + 1) k − l (l + 1)) rk , dass die DGL von Interesse genau dann von crk gelöst wird, wenn (k + 1) k = l (k + l) erfüllt ist. Das ist aber genau für k = l und k = − (l + 1) der Fall. Somit erhalten wir mit diesem Ansatz Rl (r) = Al rl + Bl rl+1 und folglich Rl (r) Ylm Bl l (θ, φ) = Al r + l+1 Ylm (θ, φ) . r Nun gilt es hervorzuheben, dass jede Wahl von derartige valide Lösung liefert. l ∈ N und m ∈ [−l, l] eine Folglich entspricht die allgemeine Lösung der 22 Laplacegleichung einer Linearkombination a priori aller (das sind unendlich viele!) solcher Lösungen: f (r, θ, φ) = ∞ X l X Al r l + l=0 m=−l Bl rl+1 Ylm (θ, φ) . Abschlieÿend wollen wir diese allgemeine Lösung noch etwas spezizieren. Dazu nehmen wir an, dass ein Potential gegeben ist. U auf der Einheitssphäre (U : S 2 → R) Wir wollen dieses Potential auf den gesamten Auÿenraum der Kugel fortsetzen. Für groÿe Distanzen muss das Potential verschwinden und wir können folglich Al gleich 0 setzen. Die allgemeine Lösung Φ (r, θ, φ) der Potentialgleichung mit der Randbedingung ! Φ (1, θ, φ) = U (θ, φ) vereinfacht sich für den Auÿenraum folglich zu ∞ X l X Bl,m m Y (θ, φ) . rl+1 l Φ (r, θ, φ) = (9) l=0 m=−l Darüber hinaus können wir wie im Matrixbeispiel oben die Tatsache, dass die Kugelächenfunktionen eine Orthonormalbasis für den Funktionenraum bildet, nützen. Klarerweise gilt nämlich U ∈ L2 S 2 L2 S 2 und folglich lässt sich das Anfangspotential schreiben als U (θ, φ) = ∞ X l X hYlm (θ, φ) , U (θ, φ)iYlm (θ, φ) . l=0 m=−l Wie im Matrixfall liefert ein einfacher Koezientenvergleich nun Bl,m = hYlm (θ, φ) , U (θ, φ)i und Einsetzen dieser Tatsache in (9) liefert Φ (r, θ, φ) = = ∞ X l X 1 hY m (θ, φ) , U (θ, φ)iYlm (θ, φ) (10) rl+1 l l=0 m=−l π 2π ∞ X l X 1 Ȳlm (θ, φ) U (θ, φ) sin θdθdφ Ylm (θ, φ) , rl+1 l=0 m=−l 0 0 wobei wir in der zweiten Zeile lediglich die Denition des (komplexen) Standardskalarproduktes h·, ·iS 2 eingesetzt haben. Dies ist nun die Formel, welche ihr aus der Vorlesung bereits kennt. Abschlieÿend wollen wir noch ein einfaches, konkretes Beispiel behandeln, nämlich eine homogen geladene Kugeloberäche mit Gesamtladung 23 Q. In Tabellen lässt sich das konkrete Aussehen der Kugelächenfunktionen Ylm (θ, φ) nach- schlagen und es gilt insbesondere 1 = const. Y00 (θ, φ) = √ 4π Somit können wir insbesondere U (θ, φ) = schreiben. Q Q = √ Y00 (θ, φ) 4π 4π Einsetzen dieser Ladungsverteilung in Formel (10) und Ausnützen m der Orthonormalität von Kugelächenfunktionen (hYl Φ (r, θ, φ) = ∞ X l X l=0 m=−l 0 , Ylm i = δl,l0 δm,m0 ) liefert 0 4π Q hY m (θ, φ) , √ Y00 (θ, φ)iYlm (θ, φ) rl+1 l 4π = ∞ l Q X X 4π √ hYlm (θ, φ) , Y00 (θ, φ)iYlm (θ, φ) 4π l=0 m=−l rl+1 = ∞ l Q X X 4π √ δl,0 δm,0 Ylm (θ, φ) 4π l=0 m=−l rl+1 = 4πQ 1 0 Q √ Y0 (θ, φ) = , r 4π r wie erwartet. Denn schlieÿlich ist das genau das bekannte Potential einer homogen geladenen Kugel, oder eben einer Punktladung im Ursprung. 24