forked from joanby/probabilidad
-
Notifications
You must be signed in to change notification settings - Fork 0
/
AnalisisComponentesPrincipales.Rmd
1795 lines (1166 loc) · 43.4 KB
/
AnalisisComponentesPrincipales.Rmd
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
---
title: "Reducción de la factorialidad. Análisis de Componentes Principales."
author: "Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir"
date: ''
output:
beamer_presentation:
includes:
in_header: preamble1.tex
theme: Rochester
toc: no
---
## Introducción
* Uno de los problemas centrales del análisis de datos es la \red{reducción de la dimensionalidad}.
* Este concepto consiste en describir con cierta precisión los valores de las $p$ variables por un pequeño subconjunto $r<p$ de ellas con una pérdida mínima de información.
* Éste es el objetivo del \red{análisis de componentes principales}: dadas $n$
observaciones de $p$ variables se analiza, \red{si es razonable}, representar esta información en un \red{espacio con menos variables}.
* Para alcanzar dicho objetivo, vamos a realizar un \red{ajuste ortogonal por mínimos cuadrados}.
# Análisis de Componentes Principales
## Introducción: Matriz (tabla) de datos.
\begin{table}
\centering
\begin{tabular}{c|cccc|cc|}
Ind. & $x_1$ & $x_2$ & $\ldots$ & $x_p$ & $v_1$ & $v_2$\\
\hline
$1$ & $x_{11}$ & $x_{12}$ & $\ldots$ & $x_{1p}$ & $v_{11}$ & $v_{12}$ \\
$2$ & $x_{21}$ & $x_{22}$ & $\ldots$ & $x_{2p}$ & $v_{21}$ & $v_{22}$ \\
$3$ & $x_{31}$ & $x_{32}$ & $\ldots$ & $x_{3p}$ & $v_{31}$ & $v_{32}$ \\
$\vdots$ & $\vdots$ & $\vdots$ & $\vdots$ & $\ddots$ & $\vdots$ & $\vdots$ \\
$n$ & $x_{n1}$ & $x_{n2}$ & $\ldots$ & $x_{np}$ & $v_{n1}$ & $v_{n2}$ \\
\hline
$su_1$ &$su_{11}$ &$su_{12}$ & $\ldots$ &$su_{1p}$ &\multicolumn{2}{|c}{}\\
$su_2$ &$su_{21}$ &$su_{22}$ & $\ldots$ &$su_{2p}$ &\multicolumn{2}{|c}{}\\
\cline{1-5}
\end{tabular}
\end{table}
## Introducción: Matriz (tabla) de datos.
* Donde las variables $x_1,\ldots, x_n$ \red{describen una concepto común}
de los $n$ individuos observados.
* Las variables $v_1$, $v_2$ \red{son de perfil (o explicativas)} y los individuos $s_1$, $s_2$ son
individuos \red{suplementarios o ilustrativos}.
* Tanto los individuos como las variables suplementarias ayudan a
\red{interpretar la variabilidad de los datos}.
## Objetivos del análisis
\blue{Objetivos del análisis}
* \red{Reducción de la dimensionalidad} (factorialidad).
* Lo que se busca es un \red{espacio de variables más reducido y fácil
de interpretar}.
* El problema es que si reducimos el número de variables es posible
que \red{perdamos parte toda la variabilidad de los datos originales}.
* Así la idea básica es \red{consentir una pérdida dei nformación para lograr una
ganancia en la significación}.
## Análisis Factorial
* Algunos autores consideran el \red{ACP como una parte del Análisis
Factorial}.
* En las \red{técnicas de Análisi Factorial} se postula que \red{la variabilidad total} se
puede explicar mediante distintos tipos de factores:
* \red{factores comunes} subyacentes ($F_i$).
* \red{factores específicos} de las variables ($E_i$).
* \red{Error o fluctuaciones aleatorias} ($A_i$).
$$X_1=\alpha_{1 1} F_1+ \alpha_{1 2} F_2+\cdots +\alpha_{1 k} F_k+ E_1+ A_1$$
$$X_2=\alpha_{2 1} F_1+ \alpha_{2 2} F_2+\cdots +\alpha_{2 k} F_k+ E_2+ A_2$$
$$\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots$$
$$X_p=\alpha_{p 1} F_1+ \alpha_{p 2} F_2+\cdots +\alpha_{p k} F_k+ E_p+ A_p$$
## Análisis Factorial
* Podríamos decir que en un Análisis Factorial se fija a priori la
cantidad de varianza de cada variableque debe quedar interpretada por los
factores comunes.
* Este valor recibe el
nombre de comunalidad y se suele representarcomo $h_i^2$.
Así tenemos_
* La comunalidad de la variable $X_i$,$h_i^2$, es la varianza explicada por
$F_1,F_2,\ldots F_k.$
* La diferencia $s_i^2-h_i^2$ es la varianza de la variable $X_i$ que explican los
factores específicos y aleatorios.
$$\color{red}{\mbox{Var. observada = Var. común + Var. específica y aleatorios}}.$$
# El problema de los Componentes Principales
## El problema de los Componentes Principales
\red{Todos los factores son comunes}
$$X_1=\alpha_{1 1} CP_1+ \alpha_{1 2} CP_2+\cdots +\alpha_{1 p} CP_p$$
$$X_2=\alpha_{2 1} CP_1+ \alpha_{2 2} CP_2+\cdots +\alpha_{2 p} CP_p$$
$$\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots$$
$$X_p=\alpha_{p 1} CP_1+ \alpha_{p 2} CP_2+\cdots +\alpha_{p p} CP_p$$
Se trata de encontrar unas nuevas variables $CP_1,\ldots CP_p$, a las que
llamaremos
componentes principales, de forma que:
## El problema de los Componentes Principales
* Se cumplan las condiciones anteriores.
* El origen de las variables esté situado en el vector de medias o centro
de gravedad de las observaciones.
* Sean incorreladas entre si $Cor(CP_i,CP_j)=0$ para $i\not= j, i,j
=1,\ldots,p$.
* Se cumple que $Var(CP_1)\geq Var(CP_2)\geq\cdots\geq Var(CP_p)$ y hagan máximas estas
varianzas.
* Se conserva la varianza total (inercia) de la nube de puntos.
# Tipos de A.C.P.
## Tipos de A.C.P:
* Sobre los datos centrados: a cada variable se le resta su media
$x_i-\overline{x}_i$.
* Sobre los datos tipificados $\frac{x_{i}-\overline{x}_i}{s_i}$.
* En el primer caso las variables centradas tienen media cero y la misma
varianza que las variables originales: se le suele llamar ACP de covarianzas.
* En el segundo caso las
variables tipificadas tienen media cero y varianza 1: se le suele llamar ACP de
correlaciones o normado.
## Tipos de A.C.P:
Recordemos que dada una matriz de datos $\mathbf{X}$
($n\times p$ es decirde $n$ individuos y $p$ variables) representábamos por $\tilde{\mathbf{X}}$ la
matriz de datos centrada. Entonces:
* La matriz de covarianzas de $\mathbf{X}$ viene dada por
$$\mathbf{S}=1/n \tilde{\mathbf{X}}^\top \tilde{\mathbf{X}}$$
* Si llamamos $\mathbf{Z}$ a la tabla de los datos tipificados, la matriz de
correlaciones viene dada
por
$$\mathbf{R}=1/n \mathbf{Z}^\top \mathbf{Z}$$
## A.C.P propiedades
\blue{Propiedades}
* Los \red{componentes principales vienen determinadas por los vectores propios ortonormales}
(ordenados de mayor a menor valor propio) de la matriz de covarianzas (para
datos centrados) y de la matriz de correlaciones (para los datos tipificados).
* Así en el ACP de covarianzas cada variable interviene con su propia
varianza mientras que el ACP de correlaciones todas las variables tienen varianza 1.
# ACP covarianzas:
## ACP covarianzas:
* Sea $\mathbf{S}$ la matriz de covarianzas de orden $p$.
Calculamos sus valores propios
$$\lambda_1\geq \lambda_2\geq\ldots\geq\lambda_p$$
y los correspondientes vectores propios ortonormales (perpendiculares y de norma
1)
$$\mathbf{u}_1,\mathbf{u}_2,\ldots,\mathbf{u}_p$$
* Las \red{direcciones de los componentes principales} quedan determinadas por su
respectivo vector propio.
* \red{Cálculo de las coordenadas de la nueva matriz de datos respecto
a las nuevas variables $CP$:}
$$\mathbf{CP}= \tilde{\mathbf{X}} \mathbf{u},$$
donde $\mathbf{u}$ es la matriz de los vectores propios.
## Ejemplo
Vamos a realizar un ACP sobre el ejemplo de la estatura de un niño recién
nacido.
\begin{table}
\centering
\begin{tabular}{|c|c|c|c|c|}\hline
$x_1$ & $x_2$ & $x_3$ & $x_4$&Sexo\\
\hline
78&48.2&2.75&29.5& Niña\\
69&45.5&2.15&26.3& Niña\\
77&46.3&4.41&32.2& Niña\\
88&49&5.52&36.5& Niño\\
67&43&3.21&27.2& Niña\\
80&48&4.32&27.7& Niña\\
74&48&2.31&28.3& Niña\\
94&53&4.3&30.3& Niño\\
102&58&3.71&28.7& Niño
\\
\hline
\end{tabular}
\end{table}
## Ejemplo
Donde:
* $x_1:$ edad en días
* $x_2:$ estatura al nacer en cm.
* $x_3:$ peso en Kg. al nacer
* $x_4:$ aumento en tanto por ciento de su peso con respecto de su
peso al nacer.
*El sexo es una variable de perfil que intentaremos explicar con
nuestro análisis de componentes principales.
## Código para la carga de datos
```{r}
n = 9
p = 4
X = matrix(c(78,48.2,2.75,29.5,69,45.5,2.15,26.3,
77,46.3,4.41,32.2, 88,49,5.52,36.5, 67,43,3.21,27.2,
80,48,4.32,27.7, 74,48,2.31,28.3, 94,53,4.3,30.3,
102,58,3.71,28.7),nrow=n,byrow=T)
Datos= as.data.frame(X)
names(Datos) = paste("x",c(1:p),sep="")
Sexo = as.factor(c("Niña","Niña","Niña","Niño",
"Niña","Niña","Niña","Niño","Niño"))
Datos$Sexo=Sexo
```
## Código diagrama matricial
El siguiente código dibuja un diagrama matricial de las variables.
```{r dibumatri, eval=FALSE,echo=TRUE}
pairs(Datos[,1:4],pch=21,
bg = c("red", "blue")[unclass(Datos$Sexo)],
main="Diagrama matricial de las variables.
\n Azul Niño, Rojo Niña")
legend(15,-4,legend=levels(Datos$Sexo),pch=21,
pt.bg=c("red", "blue"),title="Sexo")
```
que producen este gráfico...
## Diagrama matricial
```{r echo=F,fig=TRUE}
pairs(Datos[,1:4],pch=21,
bg = c("red", "blue")[unclass(Datos$Sexo)],
main="Diagrama matricial de las variables.
\n Azul Niño, Rojo Niña")
legend(15,-4,legend=levels(Datos$Sexo),pch=21,
pt.bg=c("red", "blue"),title="Sexo")
```
## Cálculos básicos
En lo que sigue todos los datos se redondean al tercer decimal.
Daremos el código de R que realiza el cálculo, en el código no se redondea:
La matriz centrada de los datos anteriores es:
$$
\tilde{\mathbf{X}}=
\left(
\begin{array}{rrrr}
-3.000 & -0.578 & -0.881 & -0.133 \\
-12.000 & -3.278 & -1.481 & -3.333 \\
-4.000 & -2.478 & 0.779 & 2.567 \\
7.000 & 0.222 & 1.889 & 6.867 \\
-14.000 & -5.778 & -0.421 & -2.433 \\
-1.000 & -0.778 & 0.689 & -1.933 \\
-7.000 & -0.778 & -1.321 & -1.333 \\
13.000 & 4.222 & 0.669 & 0.667 \\
21.000 & 9.222 & 0.079 & -0.933
\end{array}
\right)
$$
## Cálculos básicos
```{r matrizcentradaACP1,echo=F,results='hide',size="tiny"}
colMeans(X)
Hn=diag(rep(1,n))-1/n
Hn
```
## Cálculos básicos
```{r matrizcentradaACP2,echo=F,results='hide',size="tiny"}
colMeans(X) # medias de las variables/columna
cX=Hn%*%X # matriz centrada cálculo matricial
cX=round(cX,3)
cX
```
## Ejemplo
* La matriz de covarianzas de los datos anteriores es:
$$
\mathbf{S}=
\begin{pmatrix}
119.333 & 43.133 & 6.148 & 12.511 \\
43.133 & 17.193 & 1.148 & 1.886 \\
6.148 & 1.148 & 1.111 & 2.428 \\
12.511 & 1.886 & 2.428 & 8.624
\end{pmatrix}
$$
* Los valores propios son:
$$\lambda_1=136.615,\quad \lambda_2 8.861,\quad \lambda_3 = 0.738,\quad \lambda_4 = 0.047.$$
## Ejemplo
* Los vectores propios ortonormales correspondientes a los valores propios,
son las columnas de la siguiente matriz:
$$
\left(
\begin{array}{rrrr}
0.934 & -0.022 & 0.256 & 0.247 \\
0.339 & 0.354 & -0.661 & -0.568 \\
0.047 & -0.248 & 0.566 & -0.785 \\
0.097 & -0.902 & -0.421 & -0.013
\end{array}
\right)
$$
## Ejemplo
```{r covarianzasValorespropios,echo=F,size="tiny"}
S=cov(X)*(n-1)/n
S
eigen(S)-> sol
sol
```
## Ejemplo
* Las expresiones de las variables nuevas $CP_i$ en función de las antiguas, notemos que se calculan sobre los datos centrados, son:
$$
\begin{array}{rl}
CP_1 = & 0.934\cdot \tilde{X}_1 + 0.339\cdot \tilde{X}_2 + 0.047\cdot
\tilde{X}_3\\ & + 0.097 \cdot \tilde{X}_4, \\
CP_2 = & -0.022\cdot \tilde{X}_1 +0.354\cdot \tilde{X}_2 -0.248 \cdot
\tilde{X}_3 \\ & -0.902 \cdot \tilde{X}_4, \\
CP_3 = & 0.256\cdot \tilde{X}_1 -0.661 \cdot \tilde{X}_2 +0.566\cdot \tilde{X}_3
\\ &-0.421\cdot \tilde{X}_4, \\
CP_4 = & 0.247 \cdot \tilde{X}_1 - 0.568\cdot \tilde{X}_2 - 0.785\cdot
\tilde{X}_3 \\ & - 0.013 \cdot \tilde{X}_4.
\end{array}
$$
## Ejemplo
* La nueva matriz de datos respecto de las nuevas variables será:
$$
\mathbf{CP}= \tilde{\mathbf{X}} \mathbf{u} =
\left(
\begin{array}{rrrr}
-3.054 & 0.201 & -0.827 & 0.280 \\
-12.719 & 2.480 & -0.333 & 0.103 \\
-4.293 & -3.295 & -0.025 & -0.228 \\
7.373 & -6.736 & -0.183 & 0.029 \\
-15.299 & 0.565 & 1.029 & 0.183 \\
-1.354 & 1.319 & 1.463 & -0.321 \\
-6.997 & 1.411 & -1.460 & -0.233 \\
13.677 & 0.437 & 0.629 & 0.282 \\
22.666 & 3.618 & -0.292 & -0.095 \\
\end{array}
\right)
$$
## Ejemplo
* Se puede observar que si se multiplican escalarmente dos columnas
cualesquiera, es resultado es nulo. Es decir, las columnas de la nueva matriz de
datos son ortogonales dos a dos.
```{r coordenadasACP,echo=F}
CP=cX%*%sol$vectors
CP
```
## Ejemplo
Como podemos observar, nuestro análisis ha explicado la variable de perfil sexo ya
que distingue entre niños y niñas con las dos primeras componentes.
```{r plotACP1,echo=FALSE,fig.height=3}
princomp(X)-> solacp
plot(solacp$scores[,c(1:2)],pch=21,bg = c("red", "blue")[unclass(Datos$Sexo)],
main="Dos primeras componentes principales")
legend(15,-4,legend=levels(Datos$Sexo),pch=21,pt.bg=c("red", "blue"),title="Sexo")
```
El siguiente código dibuja todos los componentes
```{r pairsacptodos,fig=FALSE}
pairs(solacp$scores,pch=21,
bg = c("red", "blue")[unclass(Datos$Sexo)],
main="Diagrama matricial de
los componentes principales")
```
```{r pairsacptodos1,echo=F,fig=T}
pairs(solacp$scores,pch=21,bg = c("red", "blue")[unclass(Datos$Sexo)],
main="Diagrama matricial de los componentes principales")
```
# ACP correlaciones.
## ACP correlaciones.
Sea $\mathbf{R}$ la matriz de correlaciones de orden $p$. Calcularemos sus
valores propios
$\lambda_1\geq \lambda_2\geq\ldots\geq\lambda_p$
y los correspondientes vectores propios ortonormales.
$\mathbf{u}_1,\mathbf{u}_2,\ldots,\mathbf{u}_p$
Las direcciones de los componentes principales quedan determinadas por el vector
propio
correspondiente.
\blue{Cálculo de las coordenadas de la nueva matriz de datos respecto de las
nuevas variables $CP$:}
$$\mathbf{CP}= \mathbf{Z} \mathbf{u},$$
donde $Z$ es la matriz de datos tipificados y $\mathbf{u}$ es la matriz de los
vectores propios.
## Ejemplo
*Realicemos un análisis ACP de correlaciones con el ejemplo anterior.
*La matriz tipificada de datos es:
$$
\mathbf{Z}=
\left(
\begin{array}{rrrr}
-0.275 & -0.139 & -0.836 & -0.045 \\
-1.099 & -0.791 & -1.405 & -1.135 \\
-0.366 & -0.598 & 0.739 & 0.874 \\
0.641 & 0.054 & 1.792 & 2.338 \\
-1.282 & -1.393 & -0.400 & -0.829 \\
-0.092 & -0.188 & 0.654 & -0.658 \\
-0.641 & -0.188 & -1.254 & -0.454 \\
1.190 & 1.018 & 0.635 & 0.227 \\
1.922 & 2.224 & 0.075 & -0.318
\end{array}
\right)
$$
## Ejemplo
*La matriz de correlaciones $\mathbf{R}$ vale, en este caso:
$$
\mathbf{R} =
\left(
\begin{array}{rrrr}
1.000 & 0.952 & 0.534 & 0.390 \\
0.952 & 1.000 & 0.263 & 0.155 \\
0.534 & 0.263 & 1.000 & 0.784 \\
0.390 & 0.155 & 0.784 & 1.000
\end{array}
\right)
$$
*Los valores propios de dicha matriz son:
$$
2.560,\quad 1.229,\quad 0.208,\quad 0.00325.
$$
*La matriz de los vectores propios es:
$$
\left(
\begin{array}{rrrr}
0.573 & 0.359 & -0.038 & 0.736 \\
0.478 & 0.578 & 0.145 & -0.646 \\
0.499 & -0.459 & -0.707 & -0.201 \\
0.442 & -0.572 & 0.691 & -0.029
\end{array}
\right)
$$
## Ejemplo
*Las expresiones de las variables nuevas $CP_i$ en función de las antiguas
$Z_i$son:
$$
\begin{array}{rl}
CP_1 = & 0.573\cdot Z_1 +0.478\cdot Z_2 +0.499\cdot Z_3\\ & +0.442 \cdot Z_4,
\\
CP_2 = & 0.359\cdot Z_1 + 0.578\cdot Z_2 -0.459 \cdot Z_3 \\ & -0.572 \cdot Z_4,
\\
CP_3 = & -0.038\cdot Z_1 +0.145 \cdot Z_2 -0.707\cdot Z_3 \\ &+0.691\cdot Z_4,
\\
CP_4 = & 0.736 \cdot Z_1 - 0.646\cdot Z_2 - 0.201\cdot Z_3 \\ & - 0.029 \cdot
Z_4.
\end{array}
$$
## Ejemplo
*La nueva matriz de datos respecto de las nuevas variables será:
$$
\mathbf{CP} = \mathbf{Z} \mathbf{u} =
\begin{pmatrix}
-0.661 & 0.231 & 0.550 & 0.057 \\
-2.209 & 0.443 & 0.137 & 0.018 \\
0.259 & -1.316 & 0.008 & -0.058 \\
2.319 & -1.899 & 0.332 & 0.008 \\
-1.965 & -0.608 & -0.444 & 0.061 \\
-0.107 & -0.065 & -0.941 & -0.058 \\
-1.282 & 0.497 & 0.570 & -0.085 \\
1.585 & 0.594 & -0.189 & 0.084 \\
2.061 & 2.122 & -0.023 & -0.027
\end{pmatrix}
$$
*Se puede observar que si calculamos el productoescalar de dos columnas
cualesquiera, es resultado es nulo. Es decir, las columnas de la nueva matriz de
datos son ortogonales dos a dos.
# Propiedades ACP covarianzas.
## Propiedades ACP covarianzas.
Sea $\mathbf{X}$ una matriz de datos $n\times p$ y sea
$$
\mathbf{S}=\begin{pmatrix}
s_1^2& s_{ 1 2}&\ldots &s_{1 p}\\
s_{2 1}& s_{2}^2&\ldots &s_{2 p}\\
\vdots & \vdots &\ddots & \vdots\\
s_{p 1}& s_{ p 2}&\ldots &s_{p}^2
\end{pmatrix}
$$
su matriz de covarianzas.
Recordemos que $s_i^2$ es la varianza de la variable $\mathbf{x}_i$ y que
$s_{i j}$ son las covarianzas de la variables $\mathbf{x}_i$ y $\mathbf{x}_j$.
Además la $\mbox{Varianza Total}= tr(\mathbf{S})=\sum_{i=1}^p s_i^2$
## Propiedades ACP covarianzas.
* $Var(\mathbf{CP}_i)= \lambda_i$. La varianza de cada componente
principal es su valor propio.
* $\sum_{i=1}^n Var(\mathbf{CP}_i)=\sum_{i=1}^n
\lambda_i=tr(\mathbf{S})=\sum_{i=1}^n s_i^2$. Por lo tanto los
componentes principales reproducen la varianza total
* Los componentes principales tienen correlación cero entre sí
(son *incorrelados*) por lo tanto su matriz de covarianzas es
$$\mathbf{S}_{CP}=\left(\begin{array}{cccc}
\lambda_1& 0 &\ldots &0\\
0& \lambda_{2}&\ldots & 0\\
\vdots & \vdots & & \vdots\\
0 & 0&\ldots &\lambda_{p}
\end{array}
\right)$$
## Propiedades ACP covarianzas.
* $\det(\mathbf{S}_{CP})=\prod_{i=1}^n \lambda_i =\det(\mathbf{S})$. Luego los
componentes principales conservan la varianza generalizada.
* La proporción de varianza explicada por la componente $j$-ésima es
$$\frac{\lambda_j}{\sum_{i=1}^n \lambda_i}.$$
Además al ser* incorrelados* la proporción de varianza explicada por
los $k$ primeros componentes es $$\frac{\sum_{i=1}^k
\lambda_i}{\sum_{i=1}^n \lambda_i}.$$
* $\mbox{Cov}(\tilde{\mathbf{X}}_i, \mathbf{CP}_j)=\lambda_j u_{j i}$;
$corr(\tilde{\mathbf{X}}_i, \mathbf{CP}_j)=\frac{\sqrt{\lambda_j} u_{j i}}{s_i}$
donde
$u_{j i}$ es la $i$-ésima componente del vector propio $\mathbf{u}_j$.
## Ejemplo
Vamos a comprobar las propiedades anteriores con nuestro ejemplo.
Recordemos las matrices de datos de las variables originales $\mathbf{X}$
(centradas) y de las variables en componentes principales $\mathbf{CP}$:
$$
{\tiny
\begin{array}{rl}
\tilde{\mathbf{X}} =&
\left(
\begin{array}{rrrr}
-3.000 & -0.578 & -0.881 & -0.133 \\
-12.000 & -3.278 & -1.481 & -3.333 \\
-4.000 & -2.478 & 0.779 & 2.567 \\
7.000 & 0.222 & 1.889 & 6.867 \\
-14.000 & -5.778 & -0.421 & -2.433 \\
-1.000 & -0.778 & 0.689 & -1.933 \\
-7.000 & -0.778 & -1.321 & -1.333 \\
13.000 & 4.222 & 0.669 & 0.667 \\
21.000 & 9.222 & 0.079 & -0.933
\end{array}
\right) ,
\\ &\\
\mathbf{CP}= &
\left(
\begin{array}{rrrr}
-3.054 & 0.201 & -0.827 & 0.280 \\
-12.719 & 2.480 & -0.333 & 0.103 \\
-4.293 & -3.295 & -0.025 & -0.228 \\
7.373 & -6.736 & -0.183 & 0.029 \\
-15.299 & 0.565 & 1.029 & 0.183 \\
-1.354 & 1.319 & 1.463 & -0.321 \\
-6.997 & 1.411 & -1.460 & -0.233 \\
13.677 & 0.437 & 0.629 & 0.282 \\
22.666 & 3.618 & -0.292 & -0.095
\end{array}
\right).
\end{array}}
$$
## Ejemplo
* La matriz de los vectores propios de la matriz $\mathbf{S}$ era:
$$
{\tiny
\left(
\begin{array}{rrrr}
0.934 & -0.022 & 0.256 & 0.247 \\
0.339 & 0.354 & -0.661 & -0.568 \\
0.047 & -0.248 & 0.566 & -0.785 \\
0.097 & -0.902 & -0.421 & -0.013
\end{array}\right).}
$$
* Las varianzas de las variables $CP$ son las siguientes:
$$
\begin{array}{llcll}
\mbox{Var}(\mathbf{CP}_1) & =136.615,\ & \mbox{Var}(\mathbf{CP}_2) & =8.861,\\
\mbox{Var}(\mathbf{CP}_3) & =0.738,\ &\mbox{Var}(\mathbf{CP}_4) & =0.0468,
\end{array}
$$
que \red{son los valores propios de la matriz de
covarianzas $\mathbf{S}$}.
* La \red{traza de la matriz $\mathbf{S}$} vale: $tr(\mathbf{S})=146.261$. Si sumamos
los 4 valores propios, su valor \red{coincide con la suma de los valores propios:
$$\lambda_1+\lambda_2+\lambda_3+\lambda_4 = 146.261.$$
## Ejemplo
* La \red{matriz de covarianzas de las variables $\mathbf{CP}$} es:
$$
cov(\mathbf{CP})=
\left(
\begin{array}{rrrr}
136.615 & 0.000 & 0.000 & 0.000 \\
0.000 & 8.861 & 0.000 & 0.000 \\
0.000 & 0.000 & 0.738 & 0.000 \\
0.000 & 0.000 & 0.000 & 0.047
\end{array}
\right)
$$
Podemos observar que es una matriz diagonal con los valores propios de la matriz
$\mathbf{S}$ en la diagonal.
* El \red{determinante de las matrices de covarianzas de $\tilde{\mathbf{X}}$} y
$\mathbf{CP}$ vale $41.785$, valor que \red{coincide con el producto de los valores
propios de la matriz $\mathbf{S}$}:
$$
\prod_{i=1}^4 \lambda_i= 136.615\cdot 8.861\cdot 0.738\cdot 0.0468 = 41.785.
$$
## Ejemplo
La proporción de varianza explicada por los componentes es:
\begin{tabular}{|l|l|}\hline
Variables&Varianza Explicada\\\hline
$\mathbf{CP}_1$&$136.615/146.261=0.934$\\\hline
$\mathbf{CP}_{1,2}$&$(136.615+8.861)/146.261=0.995$\\\hline
$\mathbf{CP}_{1,2,3}$&$(136.615+8.861+0.738)/146.261=0.999$\\\hline
$\mathbf{CP}_{1,2,3,4}$&$1$\\\hline
\end{tabular}
## Ejemplo
* La matriz de covarianzas entre las variables $\tilde{\mathbf{X}}$ y
$\mathbf{CP}$ vale:
$$
cov(\tilde{\mathbf{X}},\mathbf{CP})=
\left(
\begin{array}{rrrr}
127.653 & -0.198 & 0.189 & 0.012 \\
46.377 & 3.138 & -0.488 & -0.027 \\
6.422 & -2.195 & 0.417 & -0.037 \\
13.283 & -7.989 & -0.311 & -0.001
\end{array}
\right)
$$
Recuperemos la matriz de vectores propios de la matriz $\mathbf{S}$:
$$
{\tiny \left(
\begin{array}{rrrr}
0.934 & -0.022 & 0.256 & 0.247 \\
0.339 & 0.354 & -0.661 & -0.568 \\
0.047 & -0.248 & 0.566 & -0.785 \\
0.097 & -0.902 & -0.421 & -0.013
\end{array}
\right)
.}
$$
## Ejemplo
Si multiplicamos la primera columna de la matriz anterior
$$
\begin{pmatrix}
0.934\\ 0.339\\ 0.047\\ 0.097
\end{pmatrix}
$$
por el valor propio $136.615$ de la matriz $\mathbf{S}$ obtenemos la primera columna de la matriz
$\mbox{Cov}(\tilde{\mathbf{X}},\mathbf{CP})$:
$$
136.615\cdot \begin{pmatrix}0.934\\ 0.339\\ 0.047\\ 0.097\end{pmatrix}=
\begin{pmatrix}
127.652 \\ 46.377 \\ 6.422 \\ 13.283
\end{pmatrix}
$$
## Ejemplo
* En general, tenemos que
$$
\mathbf{u}\cdot \mbox{diag}(\lambda) = \mbox{Cov}(\tilde{\mathbf{X}},\mathbf{CP}),
$$
donde $\mathbf{u}$ es la matriz formada por los vectores propios de la matriz
$\mathbf{S}$ y $\mbox{diag}(\lambda)$ es una matriz diagonal con los valores
propios de la matriz $\mathbf{S}$ en la diagonal.
## Propiedades ACP covarianzas.
* La \red{primer componente principal} es la recta que \red{conserva
mayor inercia} de la nube de puntos.
* Las \red{dos primeras componentes} principales forman el \red{plano} que conserva
\red{mayor inercia} de la nube de puntos.
* Lo mismo sucede con los espacios formados por las $k$ primeras
componentes
# Propiedades ACP correlaciones.
## Propiedades ACP correlaciones.
Sea $\mathbf{X}$ una matriz de datos $n\times p$ y sea
$$\mathbf{R}=\left(\begin{array}{cccc}
1& r_{ 1 2}&\ldots &r_{1 p}\\
r_{2 1}& 1&\ldots &r_{2 p}\\
\vdots & \vdots & \ddots& \vdots\\
r_{p 1}& s_{ p 2}&\ldots &1
\end{array}
\right)$$
Su matriz de correlaciones. Se verifican las siguientes propiedades:
## Propiedades ACP correlaciones
* Recordemos que la diagonal es $1$ pues es la varianza de los datos
tipificados y que $r_{i j}$ son las correlaciones lineales de la variables
$\mathbf{x}_i$ y $\mathbf{x}_j$.
* Además la $\mbox{Varianza Total}= tr(\mathbf{R})=p$
* $Var(\mathbf{CP}_i)= \lambda_i$. El valor propio del componente es
igual a su varianza
* $\sum_{i=1}^n var(\mathbf{CP}_i)=\sum_{i=1}^n
\lambda_i=tr(\mathbf{R})=p$. Por lo tanto los componentes principales reproducen
la varianza
total y ésta es igual al numero de variables $p$.
## Propiedades ACP correlaciones.
* Los componentes principales tienen correlación cero entre sí
(son *incorrelados*) por lo tanto su matriz de covarianzas ( que
este caso es igual a la de correlaciones es
$$\mathbf{S}_{CP}=\left(\begin{array}{cccc}
\lambda_1& 0 &\ldots &0\\
0& \lambda_{2}&\ldots & 0\\
\vdots & \vdots &\ddots & \vdots\\
0 & 0&\ldots &\lambda_{p}
\end{array}
\right)$$
## Propiedades ACP correlaciones.
* $\det(\mathbf{S}_{CP})=\prod_{i=1}^n \lambda_i =\det(\mathbf{R})$. Luego los
componentes principales conservan la varianza generalizada.
* La proporción de varianza explicada por cada componente es $$\frac{\lambda_i}{p}.$$
Además al ser *incorreladas* la proporción de varianza explicada por
los $k$ primeros componentes es $$\frac{\sum_{i=1}^k \lambda_i}{p}.$$
* $corr(\mathbf{Z}_i, \mathbf{CP}_j)=\sqrt{\lambda_j}\cdot u_{j i}$ donde
$u_{j i}$ es la $i$-ésima componente del vector propio $\mathbf{u}_j$.
## Propiedades ACP correlaciones.
Vamos a comprobar las propiedades anteriores con nuestro ejemplo.
Recordemos las matrices de datos estandarizada$\mathbf{Z}$y de las variables
en componentes principales $\mathbf{CP}$:
$$
\mathbf{Z}=
\begin{pmatrix}
-0.275 & -0.139 & -0.836 & -0.045 \\
-1.099 & -0.791 & -1.405 & -1.135 \\
-0.366 & -0.598 & 0.739 & 0.874 \\
0.641 & 0.054 & 1.792 & 2.338 \\
-1.282 & -1.393 & -0.400 & -0.829 \\
-0.092 & -0.188 & 0.654 & -0.658 \\