-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathpan.tex
executable file
·1500 lines (1368 loc) · 61.9 KB
/
pan.tex
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
%
% Datei: pan.tex
%
\MyChapter{Der Algorithmus von Pan}
\label{ChapPan}
%\label{SecIteration}
In diesem Kapitel wird der Algorithmus von V. Pan \cite{Pan85} zur
Determinantenberechnung vorgestellt. Er kommt ebenfalls ohne
Divisionen\footnote{vgl. Bemerkungen in \ref{SecAlgFrame}}
aus und berechnet die Determinante iterativ. Auf diesen Algorithmus wird
mit {\em P-Alg.} Bezug genommen\footnote{vgl. Unterkapitel \ref{SecBez}}.
Man erh"alt insbesondere durch Variation der in den Unterkapitel
\ref{SecGuessInverse} und \ref{SecNewton} dargestellten Inhalte
einige weitere Versionen des Algorithmus.
F"ur eine vollst"andige Darstellung m"ussen alle diese Varianten beschrieben
und auf ihre Effizienz hin untersucht werden\footnote{N"aheres dazu ist
insbesondere in \cite{PR85a} zu finden}. Da dies jedoch den Rahmen
dieses Textes sprengt, beschr"anken sich die folgenden Darstellungen auf
die effizienteste Version des Algorithmus.
P-Alg. bietet erheblich mehr Variationsm"oglichkeiten als C-Alg., BGH-Alg.
und B-Alg., die, wie erw"ahnt, nicht alle hier behandelt werden k"onnen.
Vergleicht man P-Alg. von seiner Methodik her mit den drei
anderen, so erkennt man "Ahnlichkeiten zu BGH-Alg. . In beiden Algorithmen
werden mehrere auch separat bedeutsame teilweise schon l"anger bekannte
Verfahren zusammen verwendet. Von diesen Verfahren hebt sich lediglich
die in Unterkapitel \ref{SecGuessInverse} dargestellte Methode zur
Berechnung einer N"aherungsinversen ab. Sie wurde in \cite{Pan85} erstmalig
ver"offentlicht.
% **************************************************************************
\MySection{Diagonalisierbarkeit}
In diesem Unterkapitel wird die Diagonalisierbarkeit von Matrizen behandelt.
Es ist f"ur das Verst"andnis des in diesem Kapitel dargestellten Algorithmus
zur Determiantenberechnung nicht unbedingt erforderlich und kann daher beim
Lesen auch "ubersprungen werden. Im folgenden werden jedoch einige
Hintergr"unde der im Unterkapitel \ref{SecKrylov} dargestellten Methode von
Krylov n"aher beleuchtet, die ein paar Zusammenh"ange klarer werden lassen.
Literatur zu diesem
Thema ist neben den in Kapitel \ref{ChapBase} genannten Stellen
auch \cite{Zurm64} S. 169 ff .
Zum Problem der Diagonalisierbarkeit\footnote{Definition s. u.} gelangt
man "uber den Begriff der Basis eines Vektorraumes. Da es sich dabei
um Grundlagen der Linearen Algebra handelt, erfolgt die Darstellung
vergleichsweise oberfl"achlich.
Sei $K$ ein K"orper und $V$ ein $K$-Vektorraum.
Seien $k_1,\, k_2, \, \ldots, \, k_n \in K \backslash \{ 0 \} $
und $v_1, \, v_2, \, \ldots, \, v_n \in V$.
Dann wird
\Beq{EquLinKomb}
k_1 v_1 + k_2 v_2 + \ldots + k_n v_n
\Eeq
als \index{Linearkombination} {\em Linearkombination} der Vektoren
$v_1$ bis $v_n$ bezeichnet.
Sei $0_m$ der Nullvektor in $V$.
Falls f"ur die Vektoren die Bedingung
\[ k_1 v_1 + k_2 v_2 + \ldots + k_n v_n = 0_m \Rightarrow
k_1 = k_2 = \ldots = k_n = 0
\]
erf"ullt ist, werden sie als
{\em linear unabh"angig} \index{linear unabh{\Mya}ngig} bezeichnet,
ansonsten als {\em linear abh"angig} \index{linear abh{\Mya}ngig}.
Falls jedes Element von $V$ als Linearkombination der Vektoren
$v_1,\ldots,v_n$
darstellbar ist, werden diese Vektoren als
\index{Basis} {\em Basis} bezeichnet.
F"ur alle Basen gilt die Aussage: \nopagebreak
\begin{quote}
Je zwei Basen eines $K$-Vektorraumes bestehen aus dergleichen
Anzahl von Vektoren.
\end{quote}
Sei $B$ die Basis des $K$-Vektorraumes $V$. Dann wird die Anzahl
der Vektoren, die $B$ bilden,
als {\em Dimension von $V$} \index{Dimension} ,
kurz $\dim(V)$, bezeichnet.
Zur Darstellung von Elementen eines Vektorraumes $V$ w"ahlt man sich eine
Basis und beschreibt jedes Element des Vektorraumes als Linearkombination
der Elemente der Basis. Sei $n$ die Dimension des Vektorraumes. Dann
kann man auf diese Weise jedes Element von $V$ als $n$-Tupel von Elementen
des zugrunde liegenden K"orpers $K$ betrachten. Man erh"alt die
Vektorschreibweise:
\Beq{EquVektorSchreibweise}
\left[ \begin{array}{c} k_1 \\k_2\\ \vdots\\ k_n \end{array} \right]
\Eeq
Die Basis der Form
\begin{quote} % $$$$ Formatierung gepr"uft ?
$\left[ \begin{array}{c} 1\\ 0\\ 0\\ \vdots\\ 0\end{array} \right]$,
\hspace{0.7em}
$\left[ \begin{array}{c} 0\\ 1\\ 0\\ \vdots\\ 0\end{array} \right]$,
$\ldots , $ \hspace{0.7em}
$\left[ \begin{array}{c} 0\\ 0\\ 0\\ \vdots\\ 1 \end{array} \right]$
\end{quote}
wird als
{\em kanonische Basis} \index{kanonische Basis} bezeichnet.
Zur Betrachtung der Beziehungen verschiedener Basen zueinander werden diese
Basen ihrerseits bzgl. der kanonischen Basis dargestellt.
Wird ein Vektor $v$ bzgl. einer Basis $B$ dargestellt, so wird dies
folgenderma"sen ausgedr"uckt:
\[ \left[
\begin{array}{c}
v_1 \\ \vdots \\ v_n
\end{array}
\right]_B
\]
Werden Vektoren zu Matrizen zusammengefa"st, so wird die gleiche
Schreibweise auch f"ur diese Matrizen verwendet.
Sei $V$ ein $K$-Vektorraum der Dimension $n$ und $W$ ein $K$-Vektorraum
der Dimension $m$. Ein Ergebnis der Linearen Algebra lautet, da"s dann
die Menge aller $K$-Vektorraumhomomorphismen\footnote{also die Menge
aller {\em strukurvertr"aglichen} linearen Abbildungen} $f$
\[ f : \: V \rightarrow W \]
isomorph ist zur Menge aller $m \times n$-Matrizen $A$, wenn man die
Abbildung definiert als\footnote{Dies entspricht der
Matrizenmultiplikation (vgl. \ref{SatzAlgMatMult}), wenn man den
abzubildenden Vektor $v$ als $n \times 1$-Matrix
betrachtet (vgl. \ref{SatzAlgMatMult}).}
\[ f \lb
\left[
\begin{array}{c} v_1\\ v_2\\ \vdots\\ v_n \end{array}
\right]
\rb
:=
\left[
\begin{array}{c}
\sum_{j=1}^n a_{1,j} v_j \LMatStrut \\
\vdots \LMatStrut \\
\sum_{j=1}^n a_{m,j} v_j \LMatStrut
\end{array}
\right]
\]
Die Untersuchung der $K$-Vektorraumhomomorphismen kann man
also anhand der entsprechenden Matrien vornehmen. Im folgenden
sind nur quadratische Matrizen von Interesse. Deshalb werden in den
weiteren Ausf"uhrungen nur diese Matrizen beachtet.
Stellt man die Vektoren einer Basis $B_V$ bzgl. einer anderen Basis $B_W$
(normalerweise der kanonischen Basis) dar und betrachtet sie als
Spaltenvektoren einer Matrix \[ [B_V]_{B_W} \MyKomma \]
so erkennt man beim Vergleich von
\equref{EquLinKomb} und \equref{EquVektorSchreibweise} miteinander,
da"s man einen bzgl. $B_V$ dargestellten Vektor $x$ in seine Darstellung
bzgl. $B_W$ umrechnen kann durch
\Beq{EquBasiswechsel}
[x]_{B_W}= B_V[x] \MyPunkt
\Eeq
Man erkennt also, da"s man eine Basis auch als Vektorraumhomomorphismus
betrachten kann. Die umgekehrte Betrachtungsweise ist nat"urlich nicht
m"oglich.
Um zum Begriff der {\em Diagonalisierbarkeit} zu gelangen, betrachten wir
nun, was passiert, wenn man Basen austauscht und die Darstellungen bzgl. der
neuen Basen vornehmen will.
Seien $V$ und $W$ jeweils $K$-Vektorr"aume sowie $B_V$ und $B_W$ jeweils
Basen dieser Vektorr"aume. Sei \[ f: \: V \rightarrow W \] ein
Vektorraumhomomorphismus und $A$ die entsprechende Matrix. Es gelte
\Beq{EquVonVNachW}
\left[
\begin{array}{c} y_1\\ y_2\\ \vdots\\ y_n \end{array}
\right]_{B_W}
=
A
\left[
\begin{array}{c} x_1\\ x_2\\ \vdots\\ x_n \end{array}
\right]_{B_V}
\Eeq
Wechselt man nun zu den Basen $\tilde{B_V}$ und $\tilde{B_W}$ und stellt
die neuen Basen bzgl. der alten durch die Matrizen $C$ und $D$ dar, so gilt
entsprechend \equref{EquBasiswechsel}:
\begin{eqnarray*}
\left[
\begin{array}{c} x_1\\ x_2\\ \vdots\\ x_n \end{array}
\right]_{B_V}
& = &
C
\left[
\begin{array}{c}
\tilde{x_1}\\
\tilde{x_2}\\ \vdots \\
\tilde{x_n}
\end{array}
\right]_{\tilde{B_V}}
\\
\left[
\begin{array}{c} y_1\\ y_2\\ \vdots\\ y_n \end{array}
\right]_{B_W}
& = &
D
\left[
\begin{array}{c}
\tilde{y_1}\\
\tilde{y_2}\\ \vdots \\
\tilde{y_n}
\end{array}
\right]_{\tilde{B_W}}
\end{eqnarray*}
Gleichung \equref{EquVonVNachW} bekommt also folgendes Aussehen:
\[
D
\left[
\begin{array}{c}
\tilde{y_1}\\
\tilde{y_2}\\ \vdots \\
\tilde{y_n}
\end{array}
\right]_{\tilde{B_W}}
=
A \: C
\left[
\begin{array}{c}
\tilde{x_1}\\
\tilde{x_2}\\ \vdots \\
\tilde{x_n}
\end{array}
\right]_{\tilde{B_V}}
\]
Multipliziert man beide Seiten mit $D^{-1}$, erh"alt man:
\[
\left[
\begin{array}{c}
\tilde{y_1}\\
\tilde{y_2}\\ \vdots \\
\tilde{y_n}
\end{array}
\right]_{\tilde{B_W}}
=
D^{-1} \: A \: C
\left[
\begin{array}{c}
\tilde{x_1}\\
\tilde{x_2}\\ \vdots \\
\tilde{x_n}
\end{array}
\right]_{\tilde{B_V}}
\]
Die Abbildung $f$ wird bzgl. der neuen Basen $\tilde{B_V}$ und $\tilde{B_W}$
also durch die Matrix $A':=D^{-1}AC$ dargestellt. W"ahlt man die neuen
Basen geeignet, so ist es immer m"oglich zu erreichen, da"s
$A'$ die Form
\[ \left[
\begin{array}{cccc}
a_{1,1}' & 0 & \cdots & 0 \MatStrut \\
0 & a_{2,2}' & \ddots & \vdots \MatStrut \\
\vdots & \ddots & \ddots & 0 \MatStrut \\
0 & \cdots & 0 & a_{n,n}' \MatStrut
\end{array} \right]
\] bekommt. Eine Matrix dieser Form wird als
{\em Diagonalmatrix} \index{Diagonalmatrix} bezeichnet.
Betrachtet man nun statt einer Abbildung zwischen den
Vektorr"aumen eine Abbildung in $V$ und wechselt die Basis von $V$, so
besitzt die Abbildung bzgl. der neuen Basis die Form $C^{-1}AC$.
Es stellt sich wiederum die Frage, ob es m"oglich ist, die neue Basis
so zu w"ahlen, da"s $C^{-1}AC$ eine Diagonalmatrix ist. Eine Matrix $A$,
f"ur die das m"oglich ist, wird als
{\em diagonalisierbar} \index{diagonalisierbar} bezeichnet.
Um eine Beziehung zur Methode von Krylov (siehe Unterkapitel
\ref{SecKrylov}) herstellen zu k"onnen, folgt
eine Charakterisierung der Diagonalisierbarkeit. Dazu greifen wir auf
den bereits in
\ref{DefUnterraum} definierten Begriff des {\em Unterraumes} zur"uck.
Anhand dieser Definitionen erkennt man, da"s alle zu einem Eigenwert
geh"orenden Eigenvektoren zusammen mit dem Nullvektor einen Unterraum
des zugrunde liegenden Vektorraumes bilden. Er wird als
{\em Eigenraum} \index{Eigenraum} bezeichnet.
An dieser Stelle werden die Eigenwerte mit der Diagonalisierbarkeit
in Verbindung gebracht:
\begin{satz}
\label{SatzEigenDiagonalBasis}
Eine $n \times n$-Matrix $A$ ist genau dann diagonalisierbar, wenn der
zugrunde liegende $K$-Vektorraum $V$ eine Basis aus Eigenvektoren von
$A$ besitzt.
\end{satz}
\begin{beweis}
Wir verzichten hier auf einen ausf"uhrlichen Beweis. Die Ideen f"ur
die beiden Beweisrichtungen sind:
\begin{itemize}
\item
Ist eine Matrix $A$ diagonalisierbar und wechselt man die Basis
so, da"s $A$ Diagonalgestalt bekommt, werden dadurch die
Vektoren der kanonischen Basis zu Eigenvektoren der Matrix.
\item
Bilden die Eigenvektoren einer Matrix $A$ eine Basis von $V$ und
benutzt man diese Basis zur Darstellung bekommt $A$ die
Form einer Diagonalmatrix.
\end{itemize}
\end{beweis}
\begin{satz}
\label{SatzEigenUnabhaengig}
Seien $\lambda_1,\, \ldots,\, \lambda_k$ paarweise verschiedene
Eigenwerte der $n \times n$-Matrix $A$. Sei $v_i$ ein Eigenvektor zu
$\lambda_i$. Dann sind die Eigenvektoren $v_1,\, \ldots,\, v_k$
linear unabh"angig.
\end{satz}
\begin{beweis}
Der Beweis erfolgt durch Induktion nach der Anzahl der verschiedenen
Eigenwerte $k$:
\begin{MyDescription}
\MyItem{$k=1$}
F"ur diesen Fall ist die Behauptung offensichtlich richtig.
\MyItem{$k>1$}
Die Behauptung gelte f"ur $k-1$ und sei f"ur $k$ zu zeigen.
Induktionsvoraussetzung ist also, da"s
$v_1, \, \ldots, \, v_{k-1}$ linear unabh"angig sind.
Angenommen $v_1, \, \ldots,\, v_{k}$ sind linear abh"angig.
Dann existieren eindeutig bestimmte $r_1, \ldots, r_{k-1} \in K$
mit
\Beq{EquEigenUnabhaengig}
v_k = r_1 v_1 + \cdots + r_{k-1} v_{k-1} \MyPunkt
\Eeq
Da $v_k$ nicht der Nullvektor sein kann, mu"s mindestens einer
der Faktoren $r_1, \dots, r_k$ ungleich Null sein, z. B. $r_i$.
Betrachtet man $A$ als
Abbildung und wendet diese Abbildung auf
\equref{EquEigenUnabhaengig} an, so kann man, da es sich um
Eigenvektoren handelt, auch mit den Eigenwerten multiplizieren
und erh"alt
\[
\lambda_k v_k = \lambda_1 r_1 v_1 + \cdots
+ \lambda_k r_k v_k \MyPunkt
\]
Ist nun $\lambda_k = 0$, dann mu"s wegen der Verschiedenheit
der Eigenwerte $\lambda_i \neq 0$ sein und man erh"alt einen
Widerspruch zur linearen Unabh"angigkeit von
$v_1,\, \ldots, \, v_k$.
Ist $\lambda_k \neq 0$ erh"alt man einen Widerspruch zur
Eindeutigkeit der Darstellung von $v_k$.
\end{MyDescription}
\end{beweis}
Aus \ref{SatzEigenDiagonalBasis} und \ref{SatzEigenUnabhaengig} ergibt sich:
\begin{korollar}
\label{SatzMaxEigen}
Die maximale Anzahl verschiedener Eigenwerte einer Matrix ist gleich
der Dimension des zugrunde liegenden Vektorraumes.
Besitzt eine Matrix maximal viele verschiedene Eigenwerte, so ist
sie diagonalisierbar.
\end{korollar}
F"ur die zweite Folgerung ben"otigen wird einen weiteren Betriff. Seien
dazu $T$ und $U$ Unterr"aume des $K$-Vektorraumes $V$. Dann wird die Menge
\[
\{ w \MySetProperty
\exists k,l \in K, \, t \in T, \, u \in U: \: w=kt+lu \}
\]
aller Linearkombinationen zweier Vektoren aus $T$ und $U$ als
{\em direkte Summe von $T$ und $U$} \index{direkte Summe} bezeichnet.
Anhand von \ref{DefUnterraum} erkennt man, da"s die direkte Summe
zweier Unterr"aume von $V$ wiederum ein Unterraum von $V$ ist.
Somit erh"alt man aus
\ref{SatzEigenDiagonalBasis} und \ref{SatzEigenUnabhaengig}:
\begin{korollar}
\label{SatzEigenraum}
Eine Matrix ist genau dann diagonalisierbar, wenn die direkte Summe
aller Eigenr"aume der Matrix den zugrundliegenden Vektorraum ergibt.
\end{korollar}
Die Bedeutung der in diesem Unterkapitel dargestellten Sachverhalte
wird deutlich, wenn man sie mit den in Unterkapitel
\ref{SecKrylov} erw"ahnten Einschr"ankungen f"ur die
Verwendbarkeit der Methode von Krylov zur Berechnung der Koeffizienten
des charakteristischen Polynoms vergleicht.
% ... mehrfache Eigenwerte --> Dimension des Eigenraums
% Welche Beziehungen bestehen zwischen Invertierbarkeit und
% Dialgonalisierbarkeit?
% **************************************************************************
\MySection{Das Minimalpolynom}
\label{SecMinimalpolynom}
Die Methode von Krylov (siehe \ref{SecKrylov}) dient zur Bestimmung der
Koeffizienten des Minimalpolynoms einer Matrix. Deshalb wird hier dieses
Minimalpolynom zun"achst n"aher betrachtet. Eine tiefergreifende
Behandlung befindet sich z. B. in \cite{Zurm64} S. 233 ff .
In Satz \ref{SatzCayleyHamilton} wird bewiesen, da"s eine
$n \times n$-Matrix $A$ ihre eigene charakteristische Gleichung erf"ullt.
Diese Beobachtung f"uhrt zu: \nopagebreak[3]
\MyBeginDef
\label{DefMinimalpolynom}
\index{Minimalpolynom} \index{Minimumgleichung}
Das Polynom $m(\lambda)$ mit dem kleinsten Grad, f"ur das die
Gleichung \[ m(A) = 0_n \] erf"ullt ist, wird
{\em Minimalpolynom} genannt. Die Gleichung wird als
{\em Minimumgleichung} \index{Minimumgleichung} bezeichnet.
\MyEndDef
Um die Methode von Krylov verstehen zu k"onnen, m"ussen wir verschiedene
Eigenschaften des Minimalpolynoms beleuchten:
\begin{satz}
\label{SatzMinimalpolynomVielfaches}
Sei $A$ eine $n \times n$-Matrix und $f(\lambda)$ ein Polynom. Es
gelte \[ f(A) = 0_n \MyPunkt \] Dann ist $f(\lambda)$ ein Vielfaches
des Minimalpolynoms $m(\lambda)$ von $A$.
\end{satz}
\begin{beweis}
Angenommen die Behauptung ist falsch. Dann entsteht bei der Division
von $f(\lambda)$ durch $m(\lambda)$ ein Rest $r(\lambda)$ und f"ur
ein geeignetes Polynom $q(\lambda)$ gilt:
\[ f(\lambda) = q(\lambda)m(\lambda) + r(\lambda) \MyPunkt \]
Der Grad von $r(\lambda)$ ist kleiner als der Grad von $m(\lambda)$.
Wird nun in diese Gleichung $A$ eingesetzt, erh"alt man
\[ 0_n = 0_n + r(A) \MyPunkt \] Also mu"s auch gelten
\[ r(A) = 0_n \MyPunkt \] Da jedoch das Minimalpolynom das Polynom mit
dem kleinsten Grad ist, das diese Bedingung erf"ullt, f"uhrt dies
zu einem Widerspruch.
\end{beweis}
Aus \ref{SatzCayleyHamilton} und \ref{SatzMinimalpolynomVielfaches}
ergibt sich:
\begin{korollar}
\label{SatzVielfaches}
Das charakteristische Polynom ist ein Vielfaches des Minimalpolynoms.
\end{korollar}
Da wir die Methode von Krylov zur Berechnung des charakteristischen
Polynoms verwenden wollen, m"ussen wir wissen, unter welchen Umst"anden
es mit dem Minimalpolynom zusammenf"allt. Diese
Frage beantwortet der folgende Satz:
\begin{satz}
\label{SatzCharMatGGT}
Sei $A$ eine $n \times n$-Matrix.
Es wird definiert:
\[ C := A - \lambda E_n \MyPunkt \] Sei
\[ p(\lambda) = \det(C) \] das charakteristische Polynom von $A$.
Es gelte
\Beq{Equ20MatGGT}
m(\lambda) = \frac{ p(\lambda) }{ q(\lambda) }
\Eeq
\MyPunktA{25em}
Das Polynom $m(\lambda)$ ist genau dann das Minimalpolynom von $A$,
wenn $q(\lambda)$ der gr"o"ste gemeinsame Teiler (ggT) der
Determinanten aller $(n-1) \times (n-1)$-Untermatrizen von $C$ ist.
\end{satz}
\begin{beweis}
Der Beweis erfolgt in zwei Schritten:
\begin{itemize}
\item Sei zun"achst $q(\lambda)$ der ggT Determinanten der
Untermatrizen. Es ist
zu zeigen, da"s dann $m(\lambda)$ das Minimalpolynom ist.
Mit Hilfe von Satz \ref{SatzEntw} (Zeilen- und Spaltenentwicklung)
folgt, da"s $p(\lambda)$ durch $q(\lambda)$ teilbar ist. D. h. es
gibt ein Polynom $m'(\lambda)$, so da"s
\Beq{Equ2MatGGT}
p(\lambda) = m'(\lambda) q(\lambda) \MyPunkt
\Eeq
Weiterhin gibt es eine $n \times n$-Matrix
$M$ aus teilerfremden Polynomen "uber $\lambda$, so da"s gilt:
\Beq{Equ1MatGGT}
\adj(C) = M q(\lambda) \MyPunkt
\Eeq
Nach Satz \ref{SatzAdj} gilt:
\Beq{Equ5MatGGT}
C \, \adj(C) = E_n p(\lambda) \MyPunkt
\Eeq
Mit \equref{Equ2MatGGT} folgt aus \equref{Equ5MatGGT}:
\Beq{Equ4MatGGT}
C \, \adj(C) = E_n m'(\lambda) q(\lambda) \MyPunkt
\Eeq
Mit \equref{Equ1MatGGT} folgt aus \equref{Equ5MatGGT}:
\Beq{Equ3MatGGT}
C \, \adj(C) = C M q(\lambda) \MyPunkt
\Eeq
Aus \equref{Equ3MatGGT} und \equref{Equ4MatGGT} folgt:
\[ C M = E_n m'(\lambda) \MyPunkt \]
Benutzt man die Definition von $C$, erh"alt man
\[ (A - \lambda E_n) M = E_n m'(\lambda) \MyPunkt \]
Setzt man nun in dieser Gleichung $A$ f"ur $\lambda$ ein,
ergibt sich
\[ m'(A) = 0_n \MyPunkt \]
Nach Satz \ref{SatzMinimalpolynomVielfaches} ist $m'(\lambda)$
also ein Vielfaches des Minimalpolynoms $m(\lambda)$.
Angenommen es gibt ein Polynom $m''(\lambda)$ mit
\[ m''(A) = 0_n \MyKomma \] dessen Grad kleiner ist als der
Grad von $m'(\lambda)$. Da der Grad des charakteristischen
Polynoms immer $n$ ist, mu"s dann der Grad von $q(\lambda)$ in
\equref{Equ2MatGGT} und somit auch in \equref{Equ1MatGGT}
entsprechend gr"o"ser sein, im Widerspruch dazu, da"s
$q(\lambda)$ der ggT ist. Also ist $m'(\lambda)$ das
Minimalpolynom.
\item Sei nun $m(\lambda)$ das Minimalpolynom. Dann ist zu zeigen, da"s
$q(\lambda)$ der ggT der Unterdeterminanten ist.
Nach \ref{SatzVielfaches} gibt es ein Polynom $q'(\lambda)$, so
da"s
\Beq{Equ6MatGGT}
p(\lambda) = q'(\lambda) m(\lambda) \MyPunkt
\Eeq
Benutzt man f"ur das Minimalpolynom die Koeffizientendarstellung,
erh"alt man mit geeigneten Koeffizienten $b_i$:
\begin{eqnarray*}
\lefteqn{- E_n m(\lambda)} \\
& = & m(A) - E_n m(\lambda) \\
& = & b_m(A^m - \lambda^m E_n)
+ b_{m-1}(A^{m-1} - \lambda^{m-1} E_n) + \cdots +
b_1(A - \lambda E_n) \MyPunkt \\
\end{eqnarray*}
Also ist $m(\lambda)$ durch $(A-\lambda E_n)$ teilbar und es
gibt eine Matrix $N$ aus Polynomen "uber $\lambda$, so da"s gilt:
\Beq{Equ7MatGGT}
m(\lambda) E_n = (A - \lambda E_n) N \MyPunkt
\Eeq
Mutipliziert man beide Seiten mit $q'(\lambda)$, erh"alt man
\[ p(\lambda) E_n = q'(\lambda) (A - \lambda E_n) N \MyPunkt \]
Subtrahiert man nun auf beiden Seiten
\begin{eqnarray*}
& & p(\lambda) E_n \\
& \MyStack{nach \ref{SatzAdj}}{=} & C \,\adj(C) \\
& = & (A - \lambda E_n) \adj(C) \MyKomma
\end{eqnarray*}
erh"alt man
\[
0_{n,n} =
\underbrace{ (A - \lambda E_n)
}_{ \mbox{$(*1)$} }
\:
\underbrace{ (q'(\lambda) N - \adj(C))
}_{ \mbox{$(*2)$} }
\]
In dieser Gleichung ist Term $(*1)$ f"ur ein beliebig gew"ahltes
$\lambda$ ungleich
der Nullmatix\footnote{abgesehen von einigen Sonderf"allen, deren
Existenz den Beweis jedoch nicht beeintr"achtigt}. Also mu"s
Term $(*2)$ gleich der Nullmatrix sein, so
da"s gilt:
\[ q'(\lambda) N = \adj(C) \]
Also ist $q'(\lambda)$ Teiler der Elemente von $\adj(C)$.
Angenommen es gibt ein Polynom $q''(\lambda)$, dessen Grad
gr"o"ser ist als der Grad von $q'(\lambda)$ und das ebenfalls
Teiler der Elemente von $\adj(C)$ ist. Da der Grad von
$p(\lambda)$ immer $n$ ist, mu"s dann der Grad von $m(\lambda)$
in \equref{Equ6MatGGT} kleiner sein, im Widerspruch zu der
Voraussetzung, da"s $m(\lambda)$ das Minimalpolynom ist.
\end{itemize}
\end{beweis}
Berechnet man in \equref{Equ7MatGGT} auf beiden Seiten die Determinante,
erh"alt man
\Beq{Equ21MatGGT}
m^n(\lambda) = p(\lambda) \det(N) \MyPunkt
\Eeq
Aus \equref{Equ20MatGGT} und \equref{Equ21MatGGT} ergibt sich:
\begin{korollar}
\label{SatzMinimalNullGenauDann}
Es ist $\lambda_i$ genau dann Nullstelle von $m(\lambda)$, wenn es auch
Nullstelle von $p(\lambda)$ ist.
\end{korollar}
Anders ausgedr"uckt: $m(\lambda)$ und $p(\lambda)$ besitzen die gleichen
Nullstellen mit evtl. verschiedenen Vielfachheiten. Das f"uhrt
zu einer weiteren Schlu"sfolgerung:
\begin{korollar}
\label{SatzPaarweiseVerschieden}
Besitzt eine $n \times n$-Matrix $n$ paarweise verschiedene Eigenwerte,
so stimmen ihr Minimalpolynom und ihr charakteristisches Polynom
"uberein.
\end{korollar}
Falls die Eigenwerte nicht paarweise verschieden sind, k"onnen
Minimalpolynom und charakteristisches Polynom also verschieden sein, was
eine Einschr"ankung f"ur die Methode von Krylov
(siehe Unterkapitel \ref{SecKrylov}) bedeutet, wenn man sie zur Berechnung
der Koeffizienten des charakteristischen Polynoms verwendet.
Wann die beiden Polynome verschieden sind, zeigt der folgende Satz:
\begin{satz}
\label{SatzMinimalDimEins}
Das Minimalpolynom $m(\lambda)$ einer Matrix $A$ stimmt genau dann
mit dem charakteristischen Polynom $p(\lambda)$ der Matrix "uberein,
wenn die Dimension jedes Eigenraumes $1$
betr"agt\footnote{Es ist zu beachten, da"s diese Aussage nicht dazu
"aquivalent ist, da"s die direkte Summe der Eigenr"aume den gesamten
Vektorraum ergibt.}.
\end{satz}
\begin{beweis}
Aus \ref{SatzCharMatGGT} folgt, da"s $m(\lambda)$ und $p(\lambda)$
genau dann "ubereinstimmen, wenn der
ggT der Determinanten aller $(n-1) \times (n-1)$-Untermatrizen
der charakteristischen Matrix von $A$ gleich $1$ ist.
Betrachtet man die beiden Polynome in ihrer Linearfaktorendarstellung,
mu"s der genannte ggT, falls er ungleich $1$ ist, mit einem Linearfaktor
von $p(\lambda)$ "ubereinstimmen. F"ur die entsprechende Nullstelle
von $p(\lambda)$ verschwinden auch alle
$(n-1) \times (n-1)$-Unterdeterminanten. Es gibt also f"ur diese
Nullstelle keine $n-1$ linear unabh"angigen Spaltenvektoren der
charakteristischen Matrix. Der Rangabfall der Nullstelle ist also
gr"o"ser als $1$ und es gibt mehr als einen linear unabh"angigen
Eigenvektor zu diesem Eigenwert.
\end{beweis}
Aus \ref{SatzPaarweiseVerschieden} und \ref{SatzMinimalDimEins} erh"alt
man:
\begin{korollar}
\label{SatzMinimalKomplex}
Falls die Eigenwerte nicht paarweise verschieden sind und das
Minimalpolynom mit dem charakteristischen Polynom "ubereinstimmt,
zerf"allt es im K"orper der reellen Zahlen nicht in Linearfaktoren.
\end{korollar}
Wie bereits mehrfach erw"ahnt, erfolgt nun die Anwendung der Ergebnisse
dieses Unterkapitels auf die Methode von Krylov.
% $$$ Verbesserung der Benutzung der Methode von Krylov:
% (\det(A) gesucht); bestimme Matrix B, so da"s $\det(B)$ bekannt oder
% leicht zu berechnen und f"ur $A*B$ gilt:
% die Dimension jedes Eigenraumes ist gleich 1;
% (es gen"ugt: die Eigenwerte sind paarweise verschieden)
% w"unschenswert $\det(B)$ ist 'Einheit' im zugrundeliegenden Ring;
% berechne \det(AB); dann eine zus"atzliche Division:
% \det(A) = \det(AB) / \det(B)
% **************************************************************************
\MySection{Die Methode von Krylov}
\label{SecKrylov}
\index{Krylov!Methode von}
In diesem Unterkapitel wird die Methode von Krylov zur Bestimmung der
Koeffizienten des Minimalpolynoms einer Matrix beschrieben
(siehe z. B. \cite{Zurm64} ab S. 171 oder \cite{Hous64} ab S. 149;
Originalver"offentlichung \cite{Kryl31} ). Wie in Unterkapitel
\ref{SecMinimalpolynom} beschrieben wird, ist das Minimalpolynom
unter bestimmten Bedingungen mit dem charakteristischen Polynom identisch.
Da sich unter den Koeffizienten des charakteristischen Polynoms auch die
Determinante der zugrunde liegenden Matrix befindet
(vgl. \ref{SatzDdurchP}), ist es m"oglich, Krylovs Methode zur
Determinantenberechnung zu verwenden, was im Algorithmus von Pan
ausgenutzt wird.
Sei $A$ die $n \times n$-Matrix, deren Minimalpolynom zu
berechnen ist.
Sei $z_0$ ein geeigneter Vektor der L"ange $n$. Wie $z_0$ beschaffen ist,
wird noch behandelt. Sei $i \in \Nat$ gegeben. Die
Vektoren \[ z_1,\, \ldots,\, z_i \] erh"alt man durch
\begin{eqnarray}
z_1 & := & A z_0 \nonumber \\
z_2 & := & A z_1 = A^2 z_0 \nonumber \\
\vdots \nonumber \\
z_i & := & A z_{i-1} = A^i z_0 \label{EquDefZI} \MyPunkt
\end{eqnarray}
Die Vektoren \[ z_0,\, \ldots ,\, z_i \] werden als {\em iterierte Vektoren}
bezeichnet.
Betrachtet man die iterierten Vektoren als Spaltenvektoren einer Matrix,
erh"alt man eine sogenannte {\em Krylov}-Matrix:
\[ K(A,z_0,i):= [ z_0, z_1, z_2, \ldots, z_{i-1} ] \MyPunkt \]
Zwischen den iterierten Vektoren besteht eine lineare Abh"angigkeit
besonderer Form, die von Krylov \cite{Kryl31} f"ur das hier zu
beschreibende Verfahren entdeckt wurde.
Das Minimalpolynom von $A$ wird mit $m(\lambda)$ bezeichnet.
Es gilt also
\Beq{EquKrylovPolynom}
m(A) = 0_{n,n} \MyPunkt
\Eeq Das Polynom habe den Grad $j$.
Seien $c_0,\, \ldots\, c_{j-1}$ die Koeffizienten des Polynoms.
Definiert man
\[
c := \left[
\begin{array}{c} c_0 \\ c_1 \\ \vdots \\ c_{j-1} \end{array}
\right]
\]
dann ergibt sich
\begin{eqnarray} % $$$$ Formatierung gepr"uft ?
m(A) & = & 0_{n,n} \nonumber
\\ \Leftrightarrow \hspace{1.2mm} \nonumber
A^j + c_{j-1} A^{j-1} + \ldots + c_1 A + c_0 E_n & = & 0_{n,n}
\\ \Leftrightarrow \hspace{9.1mm} \nonumber
c_{j-1} A^{j-1} + \ldots + c_1 A + c_0 E_n & = & - A^j
\\ \Leftrightarrow \nonumber
c_0 E_n z_0 + c_1 A z_0 + \ldots + c_{j-1} A^{j-1} z_0 &
= & - A^j z_0
\\ \Leftrightarrow \hspace{3.6cm} \label{EquKrylovEqu}
K(A,z_0,j) c & = & - A^j z_0
\end{eqnarray}
Gleichung \equref{EquKrylovEqu} kann man als lineares Gleichungssystem
in Matrizenschreibweise betrachten. Multipliziert man die rechte Seite
dieser Gleichung aus, erh"alt man einen Vektor der L"ange $n$.
Nach \ref{SatzRangGleich} ist das entsprechende Gleichungssystem
genau dann l"osbar, wenn
\[ \rg(K(A,z_0,j) = \rg([K(A,z_0,j),\, A^j z_0]) \MyPunkt \]
Wir suchen eine eindeutige L"osung des Gleichungssystems und erhalten diese
durch Verwendung von \ref{SatzGenauEine}, wonach der bis hierhin
nicht n"aher beschriebene Vektor $z_0$ so gew"ahlt werden mu"s,
da"s die Spaltenvektoren von $K(A,z_0,j)$ linear unabh"angig und
die Spaltenvektoren von $[K(A,z_0,j),\, A^j z_0]$ linear abh"angig sind.
An dieser Stelle wird deutlich, da"s $m(\lambda)$ das Polynom mit dem
kleinsten Grad sein mu"s, das \equref{EquKrylovPolynom} erf"ullt, damit
\equref{EquKrylovEqu} eine eindeutige L"osung besitzt. Falls ein
Polynom $m_1(\lambda)$ existiert, da"s \equref{EquKrylovPolynom} erf"ullt
und dessen Grad kleiner ist als der Grad von $m(\lambda)$, dann ist die
lineare Abh"angigkeit unabh"angig von der Wahl von $z_0$ bereits f"ur
weniger als $j$ iterierte Vektoren gegeben.
Da nach \equref{EquKrylovEqu} die ersten $j+1$ iterierten Vektoren linear
abh"angig sind, bleibt zu zeigen, da"s die ersten $j$ dieser Vektoren linear
unabh"angig sind. Dazu betrachten wir das $s \in \Nat$ mit der Eigenschaft,
da"s $s$ paarweise verschiedene Eigenvektoren von $A$ immer linear
unabh"angig und $s+1$ von ihnen immer linear abh"angig sind. Aus den
Grundlagen "uber Eigenvektoren und lineare Unabh"angigkeit geht hervor,
da"s ein solches $s$ gibt.
Seien somit
\[ x_1,\, \ldots ,\, x_s \] linear
unabh"angige Eigenvektoren von $A$.
Sei der iterierte Vektor $z_0$ darstellbar als Linearkombination einer
maximalen Anzahl (also $s$) von Eigenvektoren von $A$.
Demnach gilt f"ur geeignete
\[ d_1,\, \ldots,\, d_s \MyKomma \] ungleich Null\footnote{Eine
ausf"uhrliche Diskussion der Eigenschaften der
iterierten Vektoren, insbesondere ihrer Beziehung zu den Eigenvektoren,
befindet sich in \cite{Bode59} (Teil 2, Kapitel 2).}:
\Beq{EquDefZNull}
z_0 = d_1 x_1 + \cdots + d_s x_s \MyPunkt
\Eeq
Eine lineare Abh"angigkeit zwischen den ersten $j$ iterierten Vektoren
hat die Form
\Beq{EquIteriertLinAbh}
h(z_0):= e_0 z_0 + e_1 z_1 + \cdots + e_{j-1} z_{j-1} = 0_n \MyKomma
\Eeq
wobei nicht alle $e_i$ gleich Null sind. Mit Hilfe der
Gleichungen \equref{EquDefZI} und \equref{EquDefZNull} in Verbindung mit
den Eigenwertgleichungen\footnote{vgl. Gleichung \equref{EquEigenMotiv}}
\[ A x_i = \lambda_i x_i \]
erh"alt man:
\begin{eqnarray*} % $$$$ Formatierung gepr"uft ?
z_0 & = & \left. d_1 x_1 + \cdots + d_s x_s
\: \hspace{14.2mm} \right| * e_0 \\
z_1 & = &
\left. \lambda_1 d_1 x_1 + \cdots +
\lambda_s d_s x_s \: \hspace{7.1mm} \right| * e_1 \\
z_2 & = &
\left. \lambda_1^2 d_1 x_1 + \cdots + \lambda_s^2 d_s x_s
\: \hspace{7mm} \right| * e_2 \\
& \vdots \\
z_{j-1} & = &
\left. \lambda_1^{j-1} d_1 x_1
+ \cdots + \lambda_s^{j-1} d_s x_s \: \right| * 1
\end{eqnarray*}
Diese Gleichungen f"ur die $z_i$ werden mit den am rechten Rand angegebenen
Werten (vgl. \equref{EquIteriertLinAbh}) multipliziert und anschlie"send
addiert. Definiert man
\[
g(\lambda):= e_0 + e_1 \lambda + \cdots + e_{j-1} \lambda^{j-1} \MyKomma
\]
so lautet das Ergebnis in Verbindung mit \equref{EquIteriertLinAbh} :
\[
h(z_0)= g(\lambda_1) d_1 x_1 + \cdots + g(\lambda_s) d_s x_s
= 0_n \MyPunkt
\]
Da die $x_k$ nach Voraussetzung linear unabh"angig sind, mu"s also gelten
\[ \forall 1 \leq k \leq s :\: g(\lambda_k)d_k = 0 \MyPunkt \]
Da wiederum nach Voraussetzung $z_0$ eine Linearkombination aller $s$
linear unabh"angigen Eigenvektoren $x_i$ (s. o.) ist, folgt
\Beq{Equ2BewLinUnabh}
\forall 1 \leq i \leq s :\: g(\lambda_i)= 0 \MyPunkt
\Eeq
Da die Dimension jedes Eigenraumes mindestens $1$ betr"agt, folgt mit Hilfe
von \ref{SatzMinimalNullGenauDann}, da"s
die maximale Anzahl linear unabh"angiger Eigenvektoren $s$ mindestens
so gro"s ist wie der Grad des Minimalpolynoms $j$.
Da $g(\lambda)$ als Polynom vom Grad $j-1$
nur maximal $j-1$ Nullstellen besitzen kann, folgt aus
\equref{Equ2BewLinUnabh}
\[ e_0 = e_1 = \cdots = e_{j-1} = 0 \MyKomma \]
Daraus wiederum folgt mit \equref{EquIteriertLinAbh},
da"s die iterierten Vektoren linear unabh"angig sind.
Der bis hierhin gef"uhrte Beweis der linearen Unabh"angigkeit
iterierter Vektoren verwendet die maximale Anzahl $s$ linear unabh"angiger
Eigenvektoren. Betrachten wir deshalb diesen Wert $s$ genauer.
Es gibt zwei F"alle:
\begin{itemize}
\item
Minimalpolynom und charakteristisches Polynom sind identisch.
Satz \ref{SatzMinimalDimEins} f"uhrt zu zwei Unterf"allen:
\begin{itemize}
\item
Die Eigenwerte sind paarweise verschieden. In diesem Fall
ist $s$ gleich dem Grad $n$ des charakteristischen Polynoms
und somit gleich $j$.
\item
Die Eigenwerte sind nicht paarweise verschieden. Nach
\ref{SatzMinimalDimEins} ist $s$ gleich der Anzahl verschiedener
Eigenwerte und damit in $\Rationals$ kleiner als $n$ und
mindestens $1$. In diesem Fall l"a"st sich die lineare
Unabh"angigkeit nur f"ur weniger als $j$ iterierte Vektoren
beweisen und die Methode von Krylov ist zur Bestimmung der
Koeffizienten des Minimalpolynoms nicht anwendbar.
\end{itemize}
\item
Minimalpolynom und charakteristisches Polynom sind nicht identisch.
Es gibt wiederum zwei Unterf"alle:
\begin{itemize}
\item
Die direkte Summe der Eigenr"aume ergibt den gesamten
Vektorraum. In diesem Fall ist $s = n >j$.
\item
Die direkte Summe der Eigenr"aume ergibt nicht den gesamten
Vektorraum. In diesem Fall ist $s \geq j$.
\end{itemize}
\end{itemize}
W"ahlt man also $z_0$ als Linearkombination einer maximalen Anzahl linear
unabh"angiger Eigenvektoren, so sind die ersten $j$ iterierten Vektoren
linear unabh"angig, es sei denn, Minimalpolynom und charakteristisches
Polynom sind identisch und die Eigenwerte nicht paarweise verschieden.
Das nun noch verbliebene Problem ist die Wahl von $z_0$ f"ur eine gegebene
Matrix $A$, da im Normalfall die Eigenvektoren nicht bekannt sind. Diese
Schwierigkeit
kann dadurch "uberwunden werden, da"s man die Methode von Krylov mit
verschiedenen Vektoren $z_0$ auf die Matrix $A$ anwendet und dabei die
Vektoren $z_0$ so ausw"ahlt, da"s mindestens einer unter ihnen eine
Linearkombination aller Eigenvektoren $x_1$ bis $x_s$ ist.
W"ahlt man eine Basis des zugrunde liegenden Vektorraumes, bestehend aus $n$
Vektoren, sowie einen
weiteren Vektor so aus, da"s je $n$ dieser $n+1$ Vektoren linear unabh"angig
sind und der $n+1$-te jeweils eine Linearkombination aller $n$ anderen ist,
so besitzt mindestens einer dieser Vektoren die geforderte Eigenschaft.
Dies erkennt man durch folgende "Uberlegung:
Stellt man die $n$ Vektoren als Linearkombinationen der Eigenvektoren dar,
so wird jeder Eigenvektor mindestens einmal ben"otigt. Da der $n+1$-te
Vektor eine Linearkombination der anderen $n$ ist, ist er also auch eine
Linearkombination aller beteiligen Eigenvektoren. Ein Beispiel f"ur
$n+1$ Vektoren, die offensichtlich diese Eigenschaft besitzen, sind die
Vektoren der kanonische Basis und deren Summe:
\[
\left[
\begin{array}{c}
1 \\ 0 \\ 0 \\ \vdots \\ 0
\end{array}
\right]
\left[
\begin{array}{c}
0 \\ 1 \\ 0 \\ \vdots \\ 0
\end{array}
\right] \: \ldots \:
\left[
\begin{array}{c}
0 \\ 0 \\ \vdots \\ 0 \\ 1
\end{array}
\right] \:
\left[
\begin{array}{c}
1 \\ 1 \\ 1 \\ \vdots \\ 1
\end{array}
\right]
\]
Uns interessiert die Berechnung der Determinante mit Hilfe der
Methode von Krylov. Zusammengefa"st sieht das Vorgehen dazu folgenderma"sen
aus:
\begin{itemize}
\item
Zun"achst werden auf die soeben beschriebene Weise $n+1$ f"ur den
iterierten Vektor $z_0$ bestimmt. In der praktischen Anwendung
beschr"ankt man
sich in der Regel auf einen Vektor, da die Anzahl der F"alle, in
denen dieser Vektor nicht ausreicht, so gering ist, da"s diese F"alle
vernachl"assigt werden k"onnen.
Die folgenden Schritte werden mit jedem Vektor $z_0$ parallel
durchgef"uhrt.
Falls mehrere der parallelen Zweige ein Ergebnis
liefern, m"ussen diese Ergebisse gleich sein. Falls sie nicht
gleich sind, wurde die Rechnung nicht korrekt durchgef"uhrt.
Falls keiner der Zweige ein Ergebnis liefert, sind entweder die
Eigenwerte der zugrunde liegenden Matrix nicht paarweise verschieden,
oder die Matrix ist nicht invertierbar. Diese beiden Unterf"alle
k"onnen mit dem hier dargestellten Algorithmus nicht unterschieden
werden.
\item
Es werden die iterierten Vektoren von $z_1$ bis $z_n$ berechnet.
\item
Das Gleichungssystem \equref{EquKrylovEqu} wird dadurch gel"ost,
da"s die aus den iterierten Vektoren bestehende Krylov-Matrix
inveritert wird. Ist die Krylov-Matrix nicht invertierbar, so ist
der Berechnungsversuch aus den bereits beschriebenen Gr"unden
ein Fehlschlag und wird abgebrochen.
\item
Die Koeffizienten des charakteristischen Polynoms, und somit auch
die Determinante, werden dadurch berechnet, da"s die Inverse
der Krylov-Matrix mit dem iterierten Vektor $z_n$ multipliziert wird
(vgl. \equref{EquKrylovEqu}).
\end{itemize}
% mehr iterierte Vektoren, als der Grad des Minimalpolynoms angibt sind
% immer linear abh"angig!!!! (--> L"osbarkeit linearer Gleichungssysteme);
% **************************************************************************
\MySection{Vektor- und Matrixnormen}
\label{SecNorm}
Die Darstellungen der Wahl einer N"aherungsinversen in Unterkapitel
\ref{SecGuessInverse} und der iterativen Matrizeninvertierung
in Unterkapitel \ref{SecNewton} benutzen Normen von Matrizen.
Deshalb werden im vorliegenden Unterkapitel die Normen eingef"uhrt, die
dort zur Beschreibung erforderlich sind.
Literatur dazu ist z. B. \cite{GL83} ab S. 12
oder \cite{Isaa73} ab S. 3.
Umgangssprachlich formuliert, stellt der Begriff der {\em Norm} eine
Verallgemeinerung des Begriffs der {\em L"ange} dar. Um zu Matrixnormen
zu gelangen, kl"aren wir zun"achst, was eine Vektornorm ist:
\MyBeginDef
\index{Norm!eines Vektors}
\label{DefVektorNorm}
Eine Funktion
\[ f: \Rationals^n \rightarrow \Rationals \MyKomma \]
die die Bedingungen
\begin{enumerate} % $$$$ Formatierung geprueft ?
\item
$ \forall x \in \Rationals: f(x) \geq 0,
f(x) = 0 \Leftrightarrow x = 0_n
$
\item
$ \forall x,y \in \Rationals: f(x + y) \leq f(x) + f(y) $
\item
$ \forall a \in \Rationals, x \in \Rationals^n: f(ax)= |a| f(x) $
\end{enumerate}
erf"ullt, hei"st {\em Norm "uber $\Rationals^n$}.
\MyEndDef
\MyBeginDef
\label{DefPNorm}
\index{H{\Myo}ldernorm} \index{p-Norm}
Sei \[ p \in \Nat \]
fest gew"ahlt und \[ x \in \Rationals^n \] beliebig.
\[ ||x||_p := (|x_1|^p + \ldots + |x_n|^p)^{1/p} \]
Die so definierte Funktion hei"st { \em $p$-Norm }.
\[ ||x||_{\infty}:= \max_{1\leq i \leq n} |x_i| \]
Diese Funktion wird mit {\em $\infty$-Norm} bezeichnet.
Die $p$-Normen sowie die $\infty$-Norm
werden als { \em H"oldernormen } bezeichnet.
\MyEndDef
Mit der vorangegangenen Definition werden zwar einige Begriffe angegeben,
es ist jedoch nicht selbstverst"andlich, da"s es sich bei den Funktionen
auch wirklich um Normen handelt:
\begin{satz}
\label{SatzPNorm}
Die in \ref{DefPNorm} definierten Funktionen
sind Normen "uber $\Rationals^n$.
\end{satz}
\begin{beweis}
Die Funktionen erf"ullen die Bedingungen aus \ref{DefVektorNorm}.
Der Beweis dieser Behauptung ist f"ur
die $1$-Norm, $2$-Norm und $\infty$-Norm in
\cite{Isaa73} ab S. 4 und
f"ur die anderen Normen in \cite{Achi67} S. 4-7 angegeben.
% (Isaa73 -> [30]) Achi67; BM b260/Achi
\end{beweis}
Den Begriff der Norm kann man auch auf Matrizen ausdehnen. F"ur uns
gen"ugt die Betrachtung quadratischer Matrizen.
\MyBeginDef
\index{Norm!einer Matrix} \index{Matrixnorm}
\label{DefMatrixNorm}
Eine Funktion
\[ f: \Rationals^{n^2} \rightarrow \Rationals \MyKomma \]