forked from filipezabala/fdepcdd
-
Notifications
You must be signed in to change notification settings - Fork 0
/
05-inferencia-class.Rmd
executable file
·1798 lines (1435 loc) · 93.7 KB
/
05-inferencia-class.Rmd
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
# Inferência Clássica {#inferencia-classica}
*Inferência* é o procedimento que visa atualizar a informação sobre parâmetros a partir dos dados amostrais. Para [@degroot2012probability, p. 378], 'inferência estatística é um procedimento que produz uma declaração probabilística a respeito de uma ou mais partes de um modelo estatístico'[^inf]. Conclusões obtidas a partir dos dados embasam a *lógica indutiva*, i.e., aquela que parte do caso particular para o caso geral e que se opõe à *lógica dedutiva* que vai do caso geral para o particular. O princípio indutivo se enquadra na noção de um decisor, a partir de uma amostra (caso particular), *inferir* sobre parâmetros universais/populacionais.
[^inf]: '*A statistical inference is a procedure that produces a probabilistic statement about some or all parts of a statistical model.*'
[@berger1985statistical, p.16] e [@paulino2003estatistica, p. 6] indicam que os procedimentos baseados no *paradigma clássico* baseiam-se em alguns princípios, tais como máxima verossimilhança, não viés[^nv], variância mínima, mínimos quadrados, consistência, suficiência e eficiência. Os clássicos consideram que existe um parâmetro $\theta$ desconhecido para o qual não se atribui probabilidades. A amostra é obtida *aleatoriamente* de um universo de interesse, sendo uma das tantas - se não infinitas - possíveis amostras. [@berger1985statistical, p.26] aponta que tal princípio coloca os clássicos como *incondicionalistas*, pois pondera-se sobre todos os dados possíveis e não condicionado ao que foi observado.
A abordagem clássica possui três tipos de estimação: *Pontual* (ou *por ponto*), por *Intervalo de Confiança* (IC/ICo) e por *Teste de Hipóteses* (TH), detalhadas a seguir.
[^nv]: Definição \@ref(def:unbiased).
## Estimação Pontual
Na *estimação pontual* utiliza-se uma estatística, calculada a partir de um *estimador* como *estimativa* (*pontual*) de um certo parâmetro, conforme Definição \@ref(def:estimador) e \@ref(def:estimativa). Em outras palavras, é utilizado um único valor amostral (ponto) para estimar $\theta$, simbolizado por $\hat{\theta}$ e lido como *teta chapéu*.
```{definition, estimador}
Um *estimador* $\hat{\theta}(\boldsymbol{x}) \equiv \hat{\theta}$ é uma função que tem por objetivo inferir sobre um parâmetro $\theta(\boldsymbol{X}) \equiv \theta$. $\\$
```
```{definition, estimativa}
Uma *estimativa* é um particular valor obtido da aplicação dos dados amostrais em um estimador. $\\$
```
```{example, media-am}
A média amostral $\bar{x}$ é um estimador pontual para a média universal $\mu$ (Eq. \@ref(eq:media-univ)). É dado pela Equação \@ref(eq:media-am).
```
### Estimadores e suas propriedades
```{definition, unbiased}
Um estimador é dito *não viesado* ou *não viciado* segundo um plano amostral $\lambda$ se
\begin{equation}
E_\lambda \left[ \hat{\theta} \right] = \theta.
(\#eq:unbiased)
\end{equation}
```
#### Média amostral $\bar{x}$ {-}
A média amostral do Exemplo \@ref(eq:media-am) é um estimador não viesado da média universal $\mu$ segundo o plano amostral AAS, com ou sem reposição. Isto ocorre pelo fato de a esperança ser linear, portanto a dependência entre as observações não interfere no resultado. $\\$
```{example, unbiased-media}
Sejam as variáveis aleatórias $X_1, X_2, \ldots, X_n$ independentes identicamente distribuídas (iid) com $E(X_i)=\mu$ e um plano amostral do tipo AAS, onde por simplicidade será considerada a equivalência $E_{AAS} \equiv E$.
\begin{align*}
E\left[\bar{x}\right] &= E\left[\frac{1}{n} \sum_{i=1}^{n} x_i \right] \\
&= \frac{1}{n} E\left[\sum_{i=1}^{n} x_i \right] \\
&= \frac{1}{n} \sum_{i=1}^{n} E\left[x_i \right] \\
&= \frac{1}{n} \sum_{i=1}^{n} \mu \\
&= \frac{1}{n} n\mu \\
E\left[\bar{x}\right] &= \mu.
(\#eq:unbiased-media)
\end{align*}
```
```{example, unbiased-media-aasc}
A média universal da variável `idade` do Exemplo \@ref(exm:universo) é dada por $$\mu = \frac{24+32+49}{3} = \frac{105}{3} = 35.$$
Do Exemplo \@ref(exm:aasc) pode-se verificar que a média (esperança) das médias amostrais considerando o plano AASc é igual a $\mu$, i.e., $$E\left[h(\boldsymbol{x})\right] = E\left[\bar{x}\right] = \frac{24.0+28.0+36.5+28.0+32.0+40.5+36.5+40.5+49.0}{9}=\frac{315}{9}=35.$$
```
```{r}
X <- c(24,32,49)
mean(X)
```
Do Exemplo \@ref(exm:aas-R) tem-se o vetor `mxc <- c(24.0,28.0,36.5,28.0,32.0,40.5,36.5,40.5,49.0)`.
```{r}
mean(mxc)
```
```{exercise}
Verifique no plano amostral AASs do Exemplo \@ref(exm:aass) que $E\left[\bar{x}\right] = \mu$. $\\$
```
#### Proporção amostral $p$ {-}
A *proporção amostral* é um estimador não viesado da proporção universal $\pi$ (Eq. \@ref(eq:prop-univ)) segundo o plano amostral AAS, com ou sem reposição. Pode-se definir este estimador por
\begin{align*}
p = \frac{\sum_{i=1}^n x_i}{n}
(\#eq:prop-am)
\end{align*}
```{example, prop-fum}
(Estimativa pontual da proporção) Suponha que deseja-se calcular a estimativa pontual para a 'proporção de fumantes da PUCRS', denotada por $\pi$. A característica de interesse, ou sucesso, é o entrevistado ser 'fumante', para o qual associa-se $x=1$; desta forma, o fracasso é o entrevistado ser 'não fumante', para o qual associa-se $x=0$. Em uma amostra de $n = 125$ frequentadores da universidade, observaram-se $\sum_{i=1}^n x_i = 25$ fumantes. A estimativa pontual de $\pi$ é dada por \[ \hat{\pi} = \dfrac{25}{125} = 0.2 = 20\%. \]
```
#### Variância amostral $s^2$ {-}
A variância amostral é um estimador não viesado da variância universal $\sigma^2$ segundo o plano amostral AAS com reposição. $\\$
```{example, unbiased-var}
Sejam as variáveis aleatórias $X_1, X_2, \ldots, X_n$ independentes identicamente distribuídas (iid) com $E(X_i)=\mu$, $Var(X_i)=\sigma^2$, $E(X_{i}^2)=\sigma^2+\mu^2$ e um plano amostral do tipo AASc, onde por simplicidade será considerada a equivalência $E_{AASc} \equiv E$.
\begin{align*}
E\left[s^2\right] &= E\left[\frac{1}{n-1} \sum_{i=1}^{n} (x_{i}-\bar{y})^2 \right] \\
&= \frac{1}{n-1} E\left[\sum_{i=1}^{n} x_{i}^2 -2 \bar{x} \sum_{i=1}^{n} x_{i} + n\bar{x}^2 \right] \\
&= \frac{1}{n-1} \left[\sum_{i=1}^{n} E\left[x_{i}^2\right] - E\left[n\bar{x}^2\right] \right] \\
&= \frac{1}{n-1} \left[\sum_{i=1}^{n} E\left[x_{i}^2\right] - nE\left[\bar{x}^2\right] \right] \\
&= \frac{1}{n-1} \left[n\sigma^2 + n\mu^2 - \sigma^2 - n\mu^2\right] \\
&= \frac{(n-1)\sigma^2}{n-1} \\
E\left[s^2\right] &= \sigma^2
(\#eq:unbiased-media)
\end{align*}
```
<!-- ```{example, unbiased-var-aasc} -->
<!-- A variância universal da variável `idade` do Exemplo \@ref(exm:universo) é dada por $$\sigma^2 = \frac{24^2+32^2+49^2}{3} - \left(\frac{24+32+49}{3} \left)^2 = \frac{4001}{3} - \left(35\left)^2 = \frac{326}{3} \approx 108.67..$$ -->
<!-- Do Exemplo \@ref(exm:aasc) pode-se verificar que a média (esperança) das variâncias amostrais considerando o plano AASc é igual a $\sigma^2$, i.e., $$E\left[s^2\right] = \frac{24.0+28.0+36.5+28.0+32.0+40.5+36.5+40.5+49.0}{9}=\frac{315}{9}=35.$$ -->
<!-- ``` -->
<!-- ```{r} -->
<!-- X <- c(24,32,49) -->
<!-- MASS::fractions(mean(X^2)-mean(X)^2) -->
<!-- MASS::fractions(mean(X)) -->
<!-- ``` -->
<!-- Do Exemplo \@ref(exm:aas-R) tem-se o vetor `mxc <- c(24.0,28.0,36.5,28.0,32.0,40.5,36.5,40.5,49.0)`. -->
<!-- ```{r} -->
<!-- mean(mxc) -->
<!-- ``` -->
```{exercise}
Verifique no plano amostral AASc do Exemplo \@ref(exm:aasc) se $E_{AASc}\left[s^2\right] = \sigma^2$. $\\$
```
```{exercise}
Verifique no plano amostral AASs do Exemplo \@ref(exm:aass) se $E_{AASs}\left[s^2\right] = \sigma^2$. $\\$
```
<!-- ```{r} -->
<!-- m_aass <- c(28.0,36.5,28.0,40.5,36.5,40.5) -->
<!-- mean(m_aass) -->
<!-- ``` -->
## (Estimação por) Intervalo de Confiança
### Média
#### $\sigma$ conhecido {-}
O IC para a média universal com $\sigma$ conhecido é dado pela expressão
\begin{equation}
IC \left[ \mu, 1-\alpha \right] = \bar{x} \mp z \dfrac{\sigma}{\sqrt{n}} = \left[ \bar{x} - z \dfrac{\sigma}{\sqrt{n}}, \bar{x} + z \dfrac{\sigma}{\sqrt{n}} \right],
(\#eq:ic-media-sigma)
\end{equation}
onde $1-\alpha$ é a confiança do intervalo, $\bar{x}$ é a média amostral, $\sigma$ é o desvio padrão universal conhecido, $n$ é o tamanho da amostra e $z=z_{\frac{\alpha}{2}}$ é o quantil da distribuição normal padrão que acumula $\frac{\alpha}{2}$ de probabilidade.
```{example, ic-media-sigma}
(IC para $\mu$ com $\sigma$ conhecido) Considere uma amostra de $n=10$ mulheres, das quais observou-se a variável $X$: 'altura'. Suponha que $X \sim \mathcal{N}(\mu,0.05)$, i.e., a variável 'altura das mulheres' tem distribuição normal com média $\mu$ desconhecida e desvio padrão universal conhecido $\sigma = 0.05$. Da tabela da distribuição normal sabe-se que os quantis $\pm 1.96$ limitam uma área de aproximadamente $95\%$, portanto $z=1.96$. Se a média da amostra é $\bar{x}_{10} = 1.63$, o IC de $1-\alpha=95\%$ é \[ IC \left[ \mu, 95\% \right] = 1.63 \mp 1.96 \dfrac{0.05}{\sqrt{10}} \approx 1.63 \mp 0.03 \approx \left[ 1.60, 1.66 \right]. \] A margem de erro é de aproximadamente $0.03$ ou 3 cm.
```
```{r}
n <- 10
m <- 1.63
sigma <- 0.05 # 'sigma' universal
z <- abs(qnorm(0.025)) # |-1.959964|
(e <- z*sigma/sqrt(n)) # Margem de erro
(LImusig <- m - e) # Limite Inferior
(LSmusig <- m + e) # Limite Superior
# Princípio de relatório automático
cat('O IC 95% para a média é [',
round(LImusig,2), ',',
round(LSmusig,2), '].')
```
#### $\sigma$ desconhecido {-}
O IC para a média universal com $\sigma$ desconhecido é dado pela expressão
\begin{eqnarray}
IC \left[ \mu, 1-\alpha \right] = \bar{x} \mp t \dfrac{s}{\sqrt{n}} = \left[ \bar{x} - t \dfrac{s}{\sqrt{n}}, \bar{x} + t \dfrac{s}{\sqrt{n}} \right],
(\#eq:ic-media-s)
\end{eqnarray}
onde $1-\alpha$ é a confiança do intervalo, $\bar{x}$ é a média amostral, $s$ é o desvio padrão amostral, $n$ é o tamanho da amostra e $t=t_{n-1, \frac{\alpha}{2}}$ é o quantil da distribuição $t$ com $n-1$ graus de liberdade que acumula $1-\frac{\alpha}{2}$ de probabilidade. Note a troca de $\sigma$ por $s$, implicando na penalidade de utilizar $t$ no lugar de $z$.
```{example, ic-media-s}
(IC para $\mu$ com $\sigma$ desconhecido) Assim como no Exemplo \@ref(exm:ic-media-sigma), considere uma amostra de $n=10$ mulheres das quais observou-se a variável $X$: 'altura'. Suponha que $X \sim \mathcal{N}(\mu,\sigma)$, i.e., a variável 'altura das mulheres' tem distribuição normal com média $\mu$ e desvio padrão universal $\sigma$, ambos desconhecidos. Da tabela da distribuição $t$ com $10-1=9$ graus de liberdade, sabe-se que os quantis $\pm 2.262$ limitam uma área de aproximadamente $95\%$, portanto $t=2.262$. Se da amostra calculou-se média de $\bar{x}_{10} = 1.63$ e desvio padrão de $s=0.05$, o IC de $1-\alpha=95\%$ é \[ IC \left[ \mu, 95\% \right] = 1.63 \mp 2.262 \dfrac{0.05}{\sqrt{10}} \approx 1.63 \mp 0.04 \approx \left[ 1.59, 1.67 \right]. \] A margem de erro é de aproximadamente $0.04$ ou 4 cm, maior que a margem de erro $0.03$ quando assume-se $\sigma$ conhecido pois $z=1.96 < 2.262=t$.
```
```{r}
n <- 10
m <- 1.63
s <- 0.05 # 's' amostral
t <- abs(qt(0.025, n-1)) # |-2.2621572|
(e <- t*s/sqrt(n)) # Margem de erro
(LImus <- m - e) # Limite Inferior
(LSmus <- m + e) # Limite Superior
# Princípio de relatório automático
cat('O IC 95% para a média é [',
round(LImus,2), ',',
round(LSmus,2), '].')
```
### Proporção
O IC para a proporção populacional $\pi$ é dado pela expressão
\begin{equation}
IC \left[ \pi, 1-\alpha \right] = p \mp z \sqrt{\dfrac{p(1-p)}{n}} = \left[ p - z \sqrt{\dfrac{p(1-p)}{n}}, p + z \sqrt{\dfrac{p(1-p)}{n}} \right]
(\#eq:ic-prop)
\end{equation}
onde $1-\alpha$ é a confiança do intervalo, $p$ é a proporção amostral, $n$ é o tamanho da amostra e $z=z_{\frac{\alpha}{2}}$ é o quantil da distribuição normal padrão que acumula $\frac{\alpha}{2}$ de probabilidade.
```{example, ic-prop}
(IC para $\pi$) Considere novamente os dados do Exemplo \ref{exm:prop-fum}, onde deseja-se calcular o IC para a proporção de fumantes da PUCRS. Sabe-se que $\hat{\pi} = p = 25/125 = 0.2$, $n=125$ e $z=1.96$. O IC de $1-\alpha=95\%$ é \[ IC \left[ \pi, 95\% \right] = 0.2 \mp 1.96 \sqrt{\dfrac{0.2 \left( 1-0.2 \right) }{125}} \approx 0.2 \mp 0.07 = \left[ 0.13, 0.27 \right] = \left[ 13\%, 27\% \right]. \] A margem de erro é de aproximadamente $0.07 = 7\%$, Note a diferença de precisão entre a tabela, consultando a probabilidade 0.0250 correspondente a $z=-1.96$, e o valor calculado com a função `qnorm`.
```
```{r}
n <- 125
p <- 25/n
z <- abs(qnorm(0.025)) # |-1.959964|
(e <- z*sqrt(p*(1-p)/n)) # Margem de erro
(LIpi <- p - e) # Limite Inferior
(LSpi <- p + e) # Limite Superior
# Princípio de relatório automático
cat('O IC 95% para a proporção é [',
round(LIpi,2), ',',
round(LSpi,2), '].')
```
```{exercise}
Acesse o material [Estatística Clássica no RStudio](http://www.filipezabala.com/materiais/ecnrs.pdf) e resolva os exercícios extras 1 ao 9 das páginas 99 e 100. Observe o Apêndice B com as respostas dos exercícios, mas só após tentar resolvê-los.
```
## (Estimação por) Teste de Hipóteses
Seja um parâmetro $\theta$ pertencente a um *espaço paramétrico* $\Theta$, i.e., o conjunto de todos os possíveis valores de $\theta$. Considere uma partição tal que $\Theta = \Theta_0 \cup \Theta_1$ e $\Theta_0 \cap \Theta_1 = \emptyset$. Um *teste de hipóteses* é uma regra de decisão que permite decidir, à luz das informações disponíveis, se é mais verossímil admitir $\theta \in \Theta_0$ ou $\theta \in \Theta_1$. A hipótese que envolve $\Theta_0$ é chamada *hipótese nula*, e a que envolve $\Theta_1$ é a *hipótese alternativa*. Tais hipóteses podem ser escritas na estrutura de *Neyman-Pearson*, na forma
$$\left\{
\begin{array}{l}
H_0: \theta \in \Theta_0\\
H_1: \theta \in \Theta_1 \\ \end{array} \right. .$$
Usualmente nos procedimentos de testes de hipóteses admite-se inicialmente que $H_0$ seja verdadeira, dito *sob $H_0$*. Por este motivo a hipótese nula sempre deve conter a igualdade, o que indicado no quadro abaixo. Note que não há uma 'regra da hipótese nula', a indicação está colocada desta forma apenas por motivos didáticos.
<center>
![](img/regraH0.png)
</center>
As definições do quadro acima implicam em três tipos de hipótese alternativa, conforme figura a seguir. A hipótese *bilateral* é a típica hipótese de equilíbrio, geralmente utilizada quando não há definição prévia sobre a direção da hipótese, tal como no caso de decidir se uma moeda deve ou não ser considerada equilibrada. A hipótese *unilateral inferior* é uma hipótese que indica um piso de referência, tal como no caso de decidir sobre a eficácia mínima de um tratamento (maior, melhor). A hipótese *unilateral superior* é uma hipótese que indica um teto de referência, tal como no caso de decidir sobre a uma ação dependente de uma taxa máxima de mortalidade (menor, melhor).
<center>
![Tipos de hipótese](img/regraH1.png)
</center>
```{exercise, hipoteses}
Para cada item abaixo, indique as hipóteses sendo testadas.
$\;$ **a.** A companhia de transporte afirma que, em média, o intervalo entre sucessivos ônibus de uma determinada linha é de 15 minutos. Uma associação de usuários de transportes coletivos acha que a pontualidade é muito importante, e deseja testar a afirmação da companhia.
$\;$ **b.** Os amortecedores de automóveis que circulam em cidades duram pelo menos 100 mil quilômetros em média, segundo a informação de algumas oficinas especializadas. O proprietário de uma locadora de veículos deseja testar esta afirmação.
$\;$ **c.** Um veterinário afirma ter obtido um ganho médio diário de pelo menos 3 litros de leite por vaca com uma nova composição de ração. Um pecuarista acredita que o ganho não é tão grande assim.
$\;$ **d.** Algumas garrafas de cerveja declaram em seus rótulos conter 600mL. Os órgãos de fiscalização desejam avaliar se uma fábrica deve ou não ser autuada por engarrafar cervejas com uma quantidade menor que o indicado no rótulo.
$\;$ **e.** O dado de um cassino parece estar viciado, saindo o valor 1 com uma frequência muito grande.
$\;$ **f.** Um fabricante afirma que a sua vacina previne pelo menos 80\% dos casos de uma doença. Um grupo de médicos desconfia que a vacina não é tão eficiente assim. $\\$
```
A partir da premissa de que $H_0$ é verdadeira, compara(m)-se o(s) valor(es) descrito(s) nesta hipótese com os dados da amostra através de uma medida chamada *estatística de teste* ou *quantidade pivotal*. Caso a estatística do teste indique uma pequena distância entre o(s) valor(es) de $H_0$ e a estatística, *admite-se* ou *não se rejeita* $H_0$; caso a distância seja grande, *rejeita-se* $H_0$. As distâncias que fazem admitir ou rejeitar $H_0$ são avaliadas em termos probabilísticos, indicadas nos gráficos acima respectivamente pelas regiões claras e escuras. A divisão destas regiões é dada por *valores críticos*, quantis das distribuições associadas às estatísticas de teste que serão detalhadas a seguir.
<center>
![](img/decisao.png)
</center>
É possível ainda considerar formas mais precisas de avaliar as distâncias probabilisticas das estatísticas de teste do que simplesmente indicando 'acima' ou 'abaixo' de um valor crítico. Pelo paradigma clássico, atribui-se uma medida que varia entre 0 e 1, chamada *p-value*, *valor-p* ou *nível descritivo amostral*. Este medida possui múltiplas definições e ainda é bastante discutida na literatura. Não é raro ser mal interpretada, portanto será considerada como um *grau de evidência em favor de $H_0$*. Rejeita-se $H_0$ se este grau de evidência for baixo, inferior a um valor de referência chamado *nível de significância* e representado por $\alpha$; caso contrário, admite-se ou não se rejeita $H_0$. Este valor de significância está associado à probabilidade de *erro do tipo I*, ou o caso em que erramos ao rejeitar uma hipótese $H_0$ verdadeira. Tal valor é *arbitrário*, ou seja, deve ser definido pelo dono do problema ao estipular o quanto admite de probabilidade máxima de erro do tipo I. Existem valores de significância típicos, usualmente 10\%, 5\%, 1\%, e 0.1\%. Devido a um exemplo dado por [@fisher1925statistical][^fisher], o valor de 5\% tornou-se uma referência para o valor de $\alpha$, ainda que existam propostas mais elaboradas e melhor embasadas na teoria Estatística. Destacam-se os trabalhos de [@gannon2019blending], [@pereira1999evidence] e [@pereira1993concept].
[^fisher]: *"The value for which P=.05, or 1 in 20, is 1.96 or nearly 2; it is convenient to take this point as a limit in judging whether a deviation is to be considered significant or not. Deviations exceeding twice the standard deviation are thus formally regarded as significant."* Ronald Aylmer Fisher na primeira edição do seu livro *Statistical Methods For Research Workers*, de 1925.
#### Associação com intervalos de confiança {-}
Os testes de hipóteses possuem as mesmas características e propriedades dos seus respectivos intervalos de confiança. Desta forma, apresenta-se um breve exemplo abordando a equivalência entre os TH e os IC para a proporção universal $\pi$.
```{example, equ-th-ic}
(TH $\equiv$ IC) Suponha uma moeda com probabilidade de face cara $Pr(H)=\pi$. Em princípio não sabemos o valor de $\pi$, e pode ser interessante considerar duas configurações:
$$\left\{
\begin{array}{l}
H_0: \mbox{a moeda é equilibrada}\\
H_1: \mbox{a moeda não é equilibrada}\\ \end{array} \right.
\equiv \left\{
\begin{array}{l}
H_0: \pi = 0.5 \\
H_1: \pi \ne 0.5 \\ \end{array} \right. .$$
Sob $H_{0}$ (i.e., supondo $H_{0}$ verdadeira), espera-se observar 'cara' em 50\% dos resultados, com alguma variação em torno de 50\%. Considerando a Equação \@ref(eq:ic-prop) pode-se obter a margem de erro esperada para esta oscilação em função do tamanho da amostra $n$ para, digamos, 95\% dos casos: \[ IC \left[ \pi, 95\% \right] = 0.5 \mp 1.96 \sqrt{\dfrac{0.5 \left(1-0.5\right)}{n}} = 0.5 \mp \dfrac{0.98}{\sqrt{n}}. \]
Assim, ao realizar $n=100$ lançamentos e observar uma frequência de caras no intervalo \[ IC \left[ \pi, 95\% \right] = 0.5 \mp \dfrac{0.98}{\sqrt{100}} = \left[ 0.402,0.598 \right] = \left[ 40.2\%,59.8\% \right] \]
pode-se considerar a moeda equilibrada com $1-\alpha=95\%$ de confiança. Caso a frequência seja inferior a $40.2\%$ ou superior a $59.8\%$, há indícios de que a moeda seja desequilibrada, também com 95\% de confiança. Pela terminologia dos testes de hipóteses, não se rejeita $H_{0}$ com $\alpha=5\%$.
Se $n=25$, \[ IC \left[ \pi, 95\% \right] = 0.5 \mp \dfrac{0.98}{\sqrt{25}} = \left[ 0.304,0.696 \right] = \left[ 30.4\%,69.6\% \right] \] e obtém-se um intervalo maior se comparado a $n=100$, i.e., menos preciso para a mesma confiança de 95\%. Como exercício, use a função \texttt{ic} para definir outros valores para $n$ e teste este resultado em uma moeda.
```
```{r}
# IC95% sob H0: \pi=0.5
ic <- function(n){
cat('[', 0.5-.98/sqrt(n), ',',
0.5+.98/sqrt(n), ']')
}
ic(100)
ic(25)
```
### Testes Paramétricos Univariados
#### TESTE 1 - Teste $z$ para média de uma amostra {-}
<!-- p. 149 -->
**Hipótese avaliada**
Uma amostra de $n$ sujeitos (ou objetos) vem de uma população de média $\mu$ igual a um valor especificado $\mu_0$?
**Suposições**
S1. O desvio padrão universal $\sigma$ é conhecido;
S2. A amostra foi selecionada aleatoriamente da população que representa;
S3. A distribuição dos dados na população que a amostra representa é normal. Pelo Teorema Central do Limite, tal suposição torna-se menos importante à medida que o tamanho da amostra aumenta.
**Testes relacionados**
TESTE 13 - Teste dos postos sinalizados de Wilcoxon para uma amostra
**Estatística do teste**
Sob $H_0: \mu = \mu_0$, $H_0: \mu \ge \mu_0$ ou $H_0: \mu \le \mu_0$,
\begin{equation}
z_{teste}=\frac{\bar{x}-\mu_0}{\sigma/\sqrt{n}} \sim \mathcal{N}(0,1).
(\#eq:z-teste-media-uni)
\end{equation}
**Valor-p**
Sob $H_0: \mu = \mu_0$,
\begin{equation}
\text{Valor-p} = 2Pr(Z \le -|z_{teste}|).
(\#eq:z-teste-media-uni-p-bi)
\end{equation}
Sob $H_0: \mu \ge \mu_0$,
\begin{equation}
\text{Valor-p} = Pr(Z \le z_{teste}).
(\#eq:z-teste-media-uni-p-uni-inf)
\end{equation}
Sob $H_0: \mu \le \mu_0$,
\begin{equation}
\text{Valor-p} = Pr(Z \ge z_{teste}).
(\#eq:z-teste-media-uni-p-uni-sup)
\end{equation}
```{example, z-teste}
É desejado testar se a média de altura dos alunos da PUCRS pode ser considerada *maior* do que 167 cm. A hipótese é portanto unilateral superior na forma $H_0: \mu \le 167$ *vs* $H_1: \mu > 167$. Estudos anteriores indicam que a variável $X$: 'altura dos alunos da PUCRS' tem distribuição normal de média desconhecida (motivo da realização do teste de hipóteses para $\mu$) e desvio padrão $\sigma=14$, indicado por $X \sim \mathcal{N}(\mu,14)$. De uma amostra aleatória com $n=25$ pessoas obteve-se $\bar{x}_{25}=172$. Assim, sob $H_0$ a estatística do teste pode ser calculada da seguinte maneira:
$$z_{teste} = \frac{172-167}{14/\sqrt{25}} \approx 1.786 \approx 1.79.$$
Se utilizarmos $\alpha=0.05$ (unilateral superior), $z_{cr\acute{\imath}tico}=1.64$. Como a estatística de teste extrapola o valor crítico, i.e., $1.79 > 1.64$, rejeita-se $H_0$. $\\$
*Decisão Estatística*: Rejeita-se $H_0$ com $\alpha=5\%$ pois $1.79 > 1.64$.
*Conclusão Experimental*: A amostra sugere que a média de altura dos alunos da PUCRS deve ser maior do que 167 cm. $\\$
```
```{example, z-teste-pvalue}
No Exemplo \@ref(exm:z-teste) é possível calcular o valor p associado à estatística de teste $z_{teste} \approx 1.79$. Por ser um teste unilateral superior, basta obter a probabilidade de encontrar um valor tão ou mais extremo que $z_{teste}$ conforme Equação \@ref(eq:z-teste-media-uni-p-uni-inf). Pela tabela de normal padrão (com precisão inferior à do computador) $$\text{Valor-p} = Pr(Z \ge 1.79) = 1-Pr(Z<1.79) = 1-0.9633 = 0.0367.$$ Utilizando $\alpha=0.05$ unilateral decide-se novamente pela rejeição de $H_0$ uma vez que o valor p é inferior ao nível de significância, i.e., $0.0367 < 0.05$. A decisão realizada desta maneira deve sempre ser a mesma quando compara-se a estatística do teste com o(s) valor(es) crítico(s). $\\$
*Decisão Estatística*: Rejeita-se $H_0$ com $\alpha=5\%$ pois $0.0367 < 0.05$.
*Conclusão Experimental*: A amostra sugere que a média de altura dos alunos da PUCRS deve ser maior do que 167 cm. $\\$
```
```{example, z-teste-r}
Realizando os Exemplos \@ref(exm:z-teste) e \@ref(exm:z-teste-pvalue) no R.
```
```{r}
# Definindo os valores indicados no enunciado
mu0 <- 167
n <- 25
x_bar <- 172
sigma <- 14
(zt <- (x_bar-mu0)/(sigma/sqrt(n))) # estatística do teste, note a maior precisão
curve(dnorm(x), -3, 3) # gráfico da normal padrão
abline(v = qnorm(.95), col = 'red') # valor crítico de ≈1.64
1-pnorm(zt) # p-value mais preciso por conta de zt e pnorm
```
#### TESTE 2 - Teste $t$ para média de uma amostra {-}
<!-- p. 163 -->
**Hipótese avaliada**
Uma amostra de $n$ sujeitos (ou objetos) vem de uma população de média $\mu$ igual a um valor especificado $\mu_0$?
**Suposições**
S1. A amostra foi selecionada aleatoriamente da população que representa;
S2. A distribuição dos dados na população que a amostra representa é normal.
<!-- Pelo Teorema Central do Limite, tal suposição torna-se menos importante à medida que o tamanho da amostra aumenta. -->
**Testes relacionados**
TESTE 14 - Teste dos postos sinalizados de Wilcoxon para uma amostra
**Estatística do teste**
Sob $H_0: \mu = \mu_0$,
\begin{equation}
t_{teste}=\frac{\bar{x}-\mu_0}{s/\sqrt{n}} \sim \mathcal{t}(gl),
(\#eq:t-teste-media-uni)
\end{equation}
onde $gl=n-1$ indica os *graus de liberdade* que definem a distribuição $t$.
**Valor-p**
Sob $H_0: \mu = \mu_0$,
\begin{equation}
\text{Valor-p} = 2Pr(T \le -|t_{teste}|).
(\#eq:t-teste-media-uni-p-bi)
\end{equation}
Sob $H_0: \mu \ge \mu_0$,
\begin{equation}
\text{Valor-p} = Pr(T \le t_{teste}).
(\#eq:t-teste-media-uni-p-uni-inf)
\end{equation}
Sob $H_0: \mu \le \mu_0$,
\begin{equation}
\text{Valor-p} = Pr(T \ge t_{teste}).
(\#eq:t-teste-media-uni-p-uni-sup)
\end{equation}
```{example, t-teste}
É desejado testar se a média de altura dos alunos da PUCRS pode ser considerada *maior* do que 167 cm. A hipótese é portanto unilateral superior na forma $H_0: \mu \le 167$ *vs* $H_1: \mu > 167$. Estudos anteriores indicam que a variável $X$: 'altura dos alunos da PUCRS' tem distribuição normal de média e desvio padrão desconhecidos, indicado por $X \sim \mathcal{N}(\mu,\sigma)$. De uma amostra aleatória com $n=25$ pessoas obteve-se $\bar{x}_{25}=172$ e $s_{25}=14$. Assim, sob $H_0$ a estatística do teste pode ser calculada da seguinte maneira:
$$t_{teste} = \frac{172-167}{14/\sqrt{25}} \approx 1.786.$$
Se utilizarmos $\alpha=0.05$ (unilateral superior), $t_{cr\acute{\imath}tico}=1.711$, considerando $gl=24$ graus de liberdade. Como a estatística de teste extrapola o valor crítico, i.e., $1.786 > 1.711$, rejeita-se $H_0$. $\\$
*Decisão Estatística*: Rejeita-se $H_0$ com $\alpha=5\%$ pois $1.786 > 1.711$.
*Conclusão Experimental*: A amostra sugere que a média de altura dos alunos da PUCRS deve ser maior do que 167 cm. $\\$
```
```{example, t-teste-pvalue}
No Exemplo \@ref(exm:t-teste) é possível obter um intervalo para o valor p associado à estatística de teste $t_{teste} \approx 1.786$. Por ser um teste unilateral superior, deve-se obter a probabilidade de encontrar um valor tão ou mais extremo que $t_{teste}$ conforme Equação \@ref(eq:t-teste-media-uni-p-uni-inf). Pela tabela de $t$ com $gl=24$ graus de liberdade obtém-se $Pr(t>1.711) = 0.05$ e $Pr(t>2.064) = 0.025$. Dada a limitação de precisão da tabela $t$, pode-se apenas concluir que $0.025 < Pr(t>1.786) < 0.05$. Utilizando $\alpha=0.05$ unilateral decide-se novamente pela rejeição de $H_0$ uma vez que o valor p é inferior ao nível de significância, i.e., $Pr(t>1.786) < 0.05$. A decisão realizada desta maneira deve sempre ser a mesma quando compara-se a estatística do teste com o(s) valor(es) crítico(s). $\\$
*Decisão Estatística*: Rejeita-se $H_0$ com $\alpha=5\%$ pois $Pr(t>1.786) < 0.05$.
*Conclusão Experimental*: A amostra sugere que a média de altura dos alunos da PUCRS deve ser maior do que 167 cm. $\\$
```
```{example, t-teste-r}
Realizando os Exemplos \@ref(exm:t-teste) e \@ref(exm:t-teste-pvalue) no R.
```
```{r}
# Definindo os valores indicados no enunciado
mu0 <- 167
n <- 25
x_bar <- 172
s <- 14
(tt <- (x_bar-mu0)/(s/sqrt(n))) # estatística do teste, note a maior precisão
curve(dt(x, df = n-1), -3, 3) # gráfico da t com gl=25-1=24
abline(v = qt(.95, df = n-1), col = 'red') # valor crítico de ≈1.711
1-pt(tt, df = n-1) # p-value mais preciso por conta de tt e pt
```
#### TESTE 3 - Testes para proporção de uma amostra, binomial (exato) e normal (assintótico) {-}
<!-- Sheskin (2011, 5th) - Handbook of Parametric and Nonparametric Statistical Procedures, p. 309 -->
<!-- Hollander, Wolfe & Chicken (2014,3rd) - Nonparametric Statistical Methods, p. 11 -->
<!-- Kloke & McKean (2015) - Nonparametric Statistical Methods Using R, p.30 -->
**Hipótese avaliada**
Em uma população composta de duas categorias, a proporção $\pi$ de observações em uma das categorias é igual a um valor específico $\pi_0$?
**Suposições**
S1. Cada observação pode ser classificada em *sucesso* ou *fracasso*;
S2. Cada uma das $n$ observações (condicionalmente) independentes é selecionada aleatoriamente de uma população;
S3. A probabilidade de sucesso $\pi$ se mantém constante a cada observação.
**Estatística do teste (assintótico)**
Sob $H_0: \pi = \pi_0$,
\begin{equation}
z_{teste}=\frac{p-\pi_0}{\sqrt{\pi_0 (1-\pi_0)/n}} \sim \mathcal{N}(0,1).
(\#eq:z-teste-prop-uni)
\end{equation}
**Valor-p (assintótico)**
Sob $H_0: \pi = \pi_0$, vide Equação \@ref(eq:z-teste-media-uni-p-bi).
Sob $H_0: \pi \ge \pi_0$, vide Equação \@ref(eq:z-teste-media-uni-p-uni-inf).
Sob $H_0: \pi \le \pi_0$, vide Equação \@ref(eq:z-teste-media-uni-p-uni-sup).
**Valor-p (exato)**
Seja $X$ o número de sucessos em $n$ ensaios de Bernoulli. Sob $H_0: \pi = \pi_0$ ocorre que $X \sim \mathcal{B}(n,\pi_0)$, se $x>\frac{n}{2}$ e $I = \{ 0,1,\ldots,n-x, x,\ldots,n \}$,
\begin{equation}
\text{Valor-p} = Pr(n-x \ge X \ge x | \pi = \pi_0) = \sum_{i \in I} {n \choose i} \pi_{0}^i (1-\pi_0)^{n-i},
(\#eq:binom-prop-uni-sup-xmaior)
\end{equation}
se $x<\frac{n}{2}$ e $I = \{ 0,1,\ldots,x, n-x,\ldots,n \}$,
\begin{equation}
\text{Valor-p} = Pr(x \ge X \ge n-x | \pi = \pi_0) = \sum_{i \in I} {n \choose i} \pi_{0}^i (1-\pi_0)^{n-i},
(\#eq:binom-prop-uni-sup-xmenor)
\end{equation}
e $\text{Valor-p} = 1$ se $x=\frac{n}{2}$.
Sob $H_0: \pi \le \pi_0$,
\begin{equation}
\text{Valor-p} = Pr(X \ge x | \pi = \pi_0) = \sum_{i=x}^{n} {n \choose i} \pi_{0}^i (1-\pi_0)^{n-i}
(\#eq:binom-prop-uni-sup)
\end{equation}
Sob $H_0: \pi \ge \pi_0$,
\begin{equation}
\text{Valor-p} = Pr(X \le x | \pi = \pi_0) = \sum_{i=0}^{x} {n \choose i} \pi_{0}^i (1-\pi_0)^{n-i}
(\#eq:binom-prop-uni-inf)
\end{equation}
```{example, prop-uni-sup-assint}
Suponha que deseja-se testar $\pi$, a proporção de caras em uma moeda, na forma $H_0: \pi \le 0.5$ *vs* $H_1 : \pi > 0.5$. Para isso a moeda é lançada $n=12$ vezes, onde se observam $x=9$ caras e $n-x=12-9=3$ coroas. Sabe-se que $p=\frac{9}{12}=\frac{3}{4}=0.75$. Considerando a abordagem assintótica, sob $H_0$ $$z_{teste}=\frac{0.75-0.5}{\sqrt{0.5 (1-0.5)/12}} \approx 1.73.$$ Se utilizarmos $\alpha=0.05$ (unilateral superior), $z_{cr\acute{\imath}tico}=1.64$. Como a estatística de teste extrapola o valor crítico, i.e., $1.73 > 1.64$, rejeita-se $H_0$. $\\$
*Decisão Estatística*: Rejeita-se $H_0$ com $\alpha=5\%$ pois $1.73 > 1.64$.
*Conclusão Experimental*: A amostra sugere que a proporção de caras da moeda deve ser considerada maior que 0.5. $\\$
```
```{example, prop-uni-sup-assint-pvalue}
Considere novamente os dados do Exemplo \@ref(exm:prop-uni-sup-assint). Pela Equação \@ref(eq:z-teste-media-uni-p-uni-sup) utilizando a tabela de normal padrão (com precisão inferior à do computador), $$\text{Valor-p} = Pr(Z \ge 1.73) = 1-Pr(Z<1.73) = 1-0.9582 = 0.0418.$$ Utilizando $\alpha=0.05$ unilateral decide-se novamente pela rejeição de $H_0$ uma vez que o valor p é inferior ao nível de significância, i.e., $0.0418 < 0.05$. A decisão realizada desta maneira deve sempre ser a mesma quando compara-se a estatística do teste com o(s) valor(es) crítico(s). $\\$
*Decisão Estatística*: Rejeita-se $H_0$ com $\alpha=5\%$ pois $0.0418 < 0.05$.
*Conclusão Experimental*: A amostra sugere que a proporção de caras da moeda deve ser considerada maior que 0.5. $\\$
```
```{example, prop-teste-assint-r}
Realizando os Exemplos \@ref(exm:prop-uni-sup-assint) e \@ref(exm:prop-uni-sup-assint-pvalue) no R.
```
```{r}
n <- 12
x <- 9
(p <- x/n)
pi0 <- 0.5
(zt <- (p-pi0)/sqrt(pi0*(1-pi0)/n))
1-pnorm(zt) # p-value mais preciso por conta de zt e pnorm
# usando a função prop.test, sem a correção de Yates
prop.test(x, n, pi0, alternative = 'greater', correct = FALSE)
```
```{example, prop-uni-sup-exato}
Considere novamente os dados do Exemplo \@ref(exm:prop-uni-sup-assint). O teste exato pode ser realizado considerando que sob $H_0: \pi \le 0.5$, o número de caras (sucessos) $X$ tem distribuição binomial de parâmetros $n=12$ e $\pi=0.5$, i.e., $X \sim \mathcal{B}(12,0.5)$. Assim, o valor-p exato resulta em
\begin{equation}
Pr\left( X \geq 9 | \pi = 0.5 \right) = \left[ \binom {12}{9} + \binom {12}{10} + \binom {12}{11} + \binom {12}{12} \right] \times 0.5^{12} \approx 0.0730. \nonumber
\end{equation}
Note a diferença do valor exato em comparação ao assintótico.
*Decisão Estatística*: não se rejeita $H_0$ com $\alpha=5\%$ pois $0.0730 > 0.05$.
*Conclusão Experimental*: a amostra sugere que a proporção de caras da moeda pode ser considerada menor ou igual a 0.5. $\\$
```
```{example, prop-teste-exato-r}
Realizando o Exemplo \@ref(exm:prop-uni-sup-exato) no R.
```
```{r}
# manualmente
n <- 12
x <- 9
pi0 <- 0.5
p9 <- dbinom(9,n,pi0)
p10 <- dbinom(10,n,pi0)
p11 <- dbinom(11,n,pi0)
p12 <- dbinom(12,n,pi0)
p9+p10+p11+p12 # valor-p
# usando a função binom.test
binom.test(x, n, pi0, alternative = 'greater')
# usando a função prop.test (assintótico mas com correção de continuidade de Yates)
prop.test(x, n, pi0, alternative = 'greater')
```
```{exercise, prop-bi}
Refaça os Exemplos \@ref(exm:prop-uni-sup-assint), \@ref(exm:prop-uni-sup-assint-pvalue) e \@ref(exm:prop-uni-sup-exato) considerando $H_0: \pi = 0.6$ *vs* $H_1 : \pi \ne 0.6$. $\\$
```
```{r, echo=FALSE, eval=FALSE}
# manualmente
n <- 12
x <- 9
pi0 <- 0.5
(p <- x/n)
(zt <- (p-pi0)/sqrt(pi0*(1-pi0)/n))
2*(1-pnorm(zt)) # p-value mais preciso por conta de zt e pnorm
p0 <- dbinom(0,n,pi0)
p1 <- dbinom(1,n,pi0)
p2 <- dbinom(2,n,pi0)
p3 <- dbinom(3,n,pi0)
p9 <- dbinom(9,n,pi0)
p10 <- dbinom(10,n,pi0)
p11 <- dbinom(11,n,pi0)
p12 <- dbinom(12,n,pi0)
p0+p1+p2+p3+p9+p10+p11+p12 # valor-p
# usando a função binom.test
binom.test(x, n, pi0, alternative = 'two.sided')
# usando a função prop.test
prop.test(x, n, pi0, alternative = 'two.sided', correct = F)
prop.test(x, n, pi0, alternative = 'two.sided', correct = T)
```
```{exercise, prop-hotel}
Uma rádio do estado anunciou que 90\% dos hotéis da Serra Gaúcha estariam lotados no final de semana do dia dos pais. A estação aconselhou os ouvintes a fazerem reserva antecipada para se hospedar na Serra nestes dias. No sábado à noite uma amostra de 58 hotéis revelou que 49 diziam 'sem vagas'. Qual é a sua reação à afirmação da rádio, depois de ver a evidência da amostra? Use 5\% de nível de significância. $\\$
```
```{r, echo=FALSE, eval=FALSE}
n <- 58
x <- 49
p <- x/n
pi0 <- .9
(zt <- (p-pi0)/sqrt(pi0*(1-pi0)/n))
1-pnorm(abs(zt))
```
```{exercise, prop-pecas}
Você é responsável por avaliar a qualidade de um grande lote de peças de segunda mão adquiridas pela sua empresa. O fabricante afirma haver no máximo 10\% de peças defeituosas, e você decide investigar. Para isso você retira uma amostra de 50 peças, das quais 9 são defeituosas. Qual a sua opinião sobre o lote adquirido, considerando níveis de significância de 1\%, 5\% e 10\%? Defina as hipóteses, apresentando a Decisão Estatística e a Conclusão Experimental. $\\$
```
```{r, echo=FALSE, eval=FALSE}
n <- 50
x <- 9
p <- x/n
pi0 <- .1
(zt <- (p-pi0)/sqrt(pi0*(1-pi0)/n))
1-pnorm(zt)
```
<!-- ```{exercise, prop-isolamento} -->
<!-- Um telejornal anuncia que '60\% das pessoas da cidade estão cumprindo isolamento social'. Você então resolve observar uma amostra de $n=10$ contatos seus em redes sociais, em diferentes -->
<!-- ``` -->
#### TESTE 4 - Teste qui-quadrado para a variância populacional de uma amostra {-}
<!-- p. 211 -->
**Hipótese avaliada**
Uma amostra de $n$ sujeitos (ou objetos) vem de uma população na qual a variância $\sigma^2$ é igual a um valor especificado $\sigma_0^2$?
**Suposições**
S1. A amostra foi selecionada aleatoriamente da população que representa;
S2. A distribuição dos dados na população que a amostra representa é normal.
**Estatística do teste**
Sob $H_0: \sigma^2 = \sigma_0^2$,
\begin{equation}
\chi_{teste}^2=\frac{(n-1)s^2}{\sigma_0^2} \sim \mathcal{\chi}^2(gl),
(\#eq:qui-teste-var-uni)
\end{equation}
onde $gl=n-1$ indica os *graus de liberdade* que definem a distribuição $\chi^2$.
**Valor-p**
Sob $H_0: \sigma^2 = \sigma_0^2$,
\begin{equation}
\text{Valor-p} = 2Pr(\chi^2 \le \chi_{teste}^2).
(\#eq:qui-teste-var-uni-p-bi)
\end{equation}
Sob $H_0: \sigma^2 \ge \sigma_0^2$,
\begin{equation}
\text{Valor-p} = Pr(\chi^2 \le \chi_{teste}^2).
(\#eq:qui-teste-var-uni-p-uni-inf)
\end{equation}
Sob $H_0: \sigma^2 \le \sigma_0^2$,
\begin{equation}
\text{Valor-p} = Pr(\chi^2 \ge \chi_{teste}^2).
(\#eq:qui-teste-var-uni-p-uni-sup)
\end{equation}
```{example, qui-var}
Deseja-se testar se a variância de uma variável com distribuição normal pode ser considerada igual a 5, i.e., $H_0: \sigma^2 = 5$ *vs* $H_0: \sigma^2 \ne 5$. Para isso observa-se uma amostra de tamanho $n=41$, de onde se calcula uma variância amostral de $s^2 \approx 3.196876$. Sob $H_0$ $$\chi_{teste}^2=\frac{(41-1) \times 3.196876 }{5} \approx 25.58.$$ Considerando $\alpha=0.05$ (bilateral) e a tabela qui-quadrado com $gl=41-1=40$, $\chi_{cr\acute{\imath}tico1}^2=24.43$ e $\chi_{cr\acute{\imath}tico2}^2=59.34$. Como a estatística de teste não extrapola os valores críticos, i.e., $24.43 < 25.58 < 59.34$, não se rejeita $H_0$. $\\$
*Decisão Estatística*: Não se rejeita $H_0$ com $\alpha=0.05$ pois $24.43 < 25.58 < 59.34$.
*Conclusão Experimental*: A amostra sugere que a variância da referida variável pode ser considerada igual a 5. $\\$
```
<!-- ```{example, qui-var-pvalue} -->
<!-- No Exemplo \@ref(exm:qui-var-teste) é possível obter um intervalo para o valor p associado à estatística de teste $\chi_{teste} \approx 25.58$. Por ser um teste bilateral, deve-se obter a probabilidade de encontrar um valor tão ou mais extremo que $t_{teste}$ conforme Equação \@ref(eq:t-teste-media-uni-p-uni-inf). Pela tabela de $t$ com $gl=24$ graus de liberdade obtém-se $Pr(t>1.711) = 0.05$ e $Pr(t>2.064) = 0.025$. Dada a limitação de precisão da tabela $t$, pode-se apenas concluir que $0.025 < Pr(t>1.786) < 0.05$. Utilizando $\alpha=0.05$ unilateral decide-se novamente pela rejeição de $H_0$ uma vez que o valor p é inferior ao nível de significância, i.e., $Pr(t>1.786) < 0.05$. A decisão realizada desta maneira deve sempre ser a mesma quando compara-se a estatística do teste com o(s) valor(es) crítico(s). $\\$ -->
<!-- *Decisão Estatística*: Rejeita-se $H_0$ com $\alpha=5\%$ pois $Pr(t>1.786) < 0.05$. -->
<!-- *Conclusão Experimental*: A amostra sugere que a média de altura dos alunos da PUCRS deve ser maior do que 167 cm. $\\$ -->
<!-- ``` -->
```{example, qui-var-r}
Realizando o Exemplo \@ref(exm:qui-var) no R.
```
```{r}
# Definindo os valores indicados no enunciado
sigma2_0 <- 5
n <- 41
set.seed(123); x <- rnorm(n, mean = 0, sd = 2)
(s2 <- var(x))
(quit <- ((n-1)*s2)/sigma2_0) # estatística do teste, note a maior precisão
curve(dchisq(x, df = n-1), 0, 80) # gráfico da qui^2 com gl=41-1=40
(qui_cr1 <- qchisq(.025, df = n-1)) # valor crítico 1
(qui_cr2 <- qchisq(.975, df = n-1)) # valor crítico 2
abline(v = c(qui_cr1, qui_cr2), col = 'red') # valores críticos
2*pchisq(quit, df = n-1) # p-value bilateral, H1: sigma^2 ≠ 5, Eq. (3.24)
pchisq(quit, df = n-1) # p-value unilateral inferior, H1: sigma^2 < 5, Eq. (3.25)
1-pchisq(quit, df = n-1) # p-value unilateral superior, H1: sigma^2 > 5, Eq. (3.26)
# Via pacote DescTools
library(DescTools)
VarTest(x, sigma.squared = sigma2_0, alternative = 'two.sided')
VarTest(x, sigma.squared = sigma2_0, alternative = 'less')
VarTest(x, sigma.squared = sigma2_0, alternative = 'greater')
```
```{exercise}
Suponha que o comprimento de peças em uma fábrica, simbolizado por $X$, tenha distribuição normal de média e variância desconhecidas, anotado por $X \sim \mathcal{N}(\mu,\sigma)$. A especificação indica média de 140cm, e desvio padrão de 7cm. Se em uma amostra de 64 peças foi observada uma média de $\bar{x}=138$cm e um desvio padrão de $s=12$cm, realize os testes de hipóteses apropriados para avaliar se as especificações estão sendo cumpridas. $\\$
```
```{r, echo=FALSE, eval=FALSE}
n <- 16
m <- 138
s <- 12
mu0 <- 140
sigma0 <- 7
(tt <- (m-mu0)/sqrt(s/n))
1-pt(abs(tt),n-1)
(quit <- ((n-1)*s^2)/sigma0^2)
1-pchisq(quit,n-1)
```
#### TESTE 5 - Teste qui-quadrado de aderência de uma amostra {-}
<!-- Sheskin (2011, 5th) - Handbook of Parametric and Nonparametric Statistical Procedures, p. 277 -->
<!-- Kloke & McKean (2015) - Nonparametric Statistical Methods Using R, p. 34 -->
<!-- Hollander, Wolfe & Chicken (2014,3rd) - Nonparametric Statistical Methods, p. 29 -->
**Hipótese avaliada**
No universo representado por uma amostra, há diferença entre as frequências esperadas e observadas?
**Suposições**
S1. Os dados avaliados consistem em uma amostra aleatória de $n$ observações (condicionalmente) independentes;
S2. Os dados representam frequências de $k$ categorias mutuamente exclusivas.
**Estatística do teste**
Sob $H_0: \pi_1=\pi_1^0, \pi_2=\pi_2^0, \ldots, \pi_k=\pi_k^0$,
\begin{equation}
\chi_{teste}^2 = \sum_{i=1}^{k} \frac{(O_{i}-E_{i})^2}{E_{i}} \sim \chi^2(gl),
(\#eq:qui-teste-ader-uni)
\end{equation}
onde $E_{i}=n\pi_i^0$, $k$ é o número de categorias e $gl=k-1$ indica os *graus de liberdade* que definem a distribuição $\chi^2$.
<!-- Com a correção de Yates, -->
<!-- \begin{equation} -->
<!-- \chi_{Yates}^2 = \sum_{i=1}^{k} \frac{(|O_{i}-E_{i}| - 0.5)^2}{E_{i}} \sim \chi^2(k-1). -->
<!-- (\#eq:qui-teste-ader-uni-yates) -->
<!-- \end{equation} -->
**Valor-p**
Sob $H_0: \pi_1=\pi_1^0, \pi_2=\pi_2^0, \ldots, \pi_k=\pi_k^0$,
\begin{equation}
\text{Valor-p} = Pr(\chi^2 \ge \chi_{teste}^2).
(\#eq:qui-teste-ader-uni-pvalue)
\end{equation}
```{example, qui-ader1}
(Adaptado de [@sheskin2011handbook, p.278] - Teste qui-quadrado de aderência balanceado) Um dado é lançado 120 vezes, a fim de determinar se pode ou não ser considerado equilibrado. Os valores observados estão apresentados conforme tabela abaixo, e $E_i=120 \times \frac{1}{6}=20, i \in \{1,2,3,4,5,6\}$.
| Face ($i$) | 1 | 2 | 3 | 4 | 5 | 6 |
|:----------:|:--:|:--:|:--:|:--:|:--:|:--:|
| $O_{i}$ | 20 | 14 | 18 | 17 | 22 | 29 |
| $E_{i}$ | 20 | 20 | 20 | 20 | 20 | 20 |
Sob $H_0: \pi_1=\frac{1}{6}, \pi_2=\frac{1}{6}, \pi_3=\frac{1}{6}, \pi_4=\frac{1}{6}, \pi_5=\frac{1}{6}, \pi_6=\frac{1}{6}$, $$\chi_{teste}^2 = \frac{(20-20)^2}{20} + \frac{(14-20)^2}{20} + \frac{(18-20)^2}{20} + \frac{(17-20)^2}{20} + \frac{(22-20)^2}{20} + \frac{(29-20)^2}{20} = 6.7.$$ Considerando $\alpha=0.05$ (unilateral superior, que é sempre o caso deste teste) e a tabela qui-quadrado com $gl=6-1=5$, $\chi_{cr\acute{\imath}tico}^2=11.07$. Como a estatística de teste não extrapola os valores críticos, i.e., $6.7 < 11.07$, não se rejeita $H_0$. Considerando a Equação \@ref(eq:qui-teste-ader-uni-pvalue) e a função `pchisq`, $$\text{Valor-p} = Pr(\chi^2 \ge 6.7) \approx 0.2439.$$
*Decisão Estatística*: Não se rejeita $H_0$ com $\alpha=0.05$ pois $6.7 < 11.07$ ou $0.2439 > 0.05$.
*Conclusão Experimental*: A amostra sugere que o dado deve ser equilibrado. $\\$
```
```{r}
curve(dchisq(x, df=5), 0, 20) # gráfico da qui^2 com gl=6-1=5
(qui_cr <- qchisq(.95, df=5)) # valor crítico
abline(v = qui_cr, col='red') # valor crítico no gráfico
o <- c(20,14,18,17,22,29) # Observados
n <- sum(o) # Tamanho da amostra
p <- rep(1/6,6) # Distribuição uniforme (dado equilibriado)
e <- n*p # Valores esperados se o dado for equilibrado
k <- length(o) # Número de categorias
(qui <- sum((o-e)^2/e)) # Equação (3.25)
1-pchisq(qui,k-1) # p-value
chisq.test(o) # Pela função 'chisq.test'
```
```{example, qui-ader2}
(Teste qui-quadrado de aderência desbalanceado) Gregor Mendel conduziu experimentos sobre hereditariedade em ervilhas. Em suma, as ervilhas podiam ser redondas (R) ou enrugadas (E), amarelas (A) ou verdes (V). Portanto, existem quatro combinações possíveis: RA, RV, EA, EV. Se sua teoria estivesse correta, as ervilhas seriam observadas na proporção de 9:3:3:1. Se o resultado do experimento produziu os seguintes dados observados, pode-se avaliar se há indícios da proporção considerada[^fisher2].
[^fisher2]: Ainda que [@fisher1936has] tenha posto dúvida sobre o trabalho de Mendel ao criar a noção do *Paradoxo Mendeliano*, ou 'bom demais para ser verdade'. Tal consideração tem bases eugenistas e incondicionalistas, calcada sob uma ótica ultrapassada assumida por Fisher e seus mentores, Karl Pearson e Francis Galton e já desmentida por acadêmicos como [@novitski2004fisher] e [@hartl2007mud].
| $i$ |RA (1)|RV (2)|EA (3)|EV (4)|**$n$**|
|:---:|:----:|:----:|:----:|:----:|:-----:|
|$O_i$| 315 | 108 | 101 | 32 |**556**|
|$E_i$|312.75|104.25|104.25|34.75 |**556**|
Sob $H_0: \pi_1=\frac{9}{16}, \pi_2=\frac{3}{16}, \pi_3=\frac{3}{16}, \pi_4=\frac{1}{16}$, $$\chi_{teste}^2 = \frac{(315-312.75)^2}{312.75} + \frac{(108-104.25)^2}{104.25} + \frac{(101-104.25)^2}{104.25} + \frac{(32-34.75)^2}{34.75} \approx 0.47.$$ Considerando $\alpha=0.05$ (unilateral superior, que é sempre o caso deste teste) e a tabela qui-quadrado com $gl=4-1=3$, $\chi_{cr\acute{\imath}tico}^2=7.81$. Como a estatística de teste não extrapola os valores críticos, i.e., $0.47 < 7.81$, não se rejeita $H_0$. Considerando a Equação \@ref(eq:qui-teste-ader-uni-pvalue) e a função `pchisq`, $$\text{Valor-p} = Pr(\chi^2 \ge 0.47) \approx 0.9254.$$
*Decisão Estatística*: Não se rejeita $H_0$ com $\alpha=0.05$ pois $0.47 < 7.81$ ou $0.9254 > 0.05$.
*Conclusão Experimental*: A amostra sugere que a proporção das ervilhas deve ser 9:3:3:1. $\\$
```
```{r}
o <- c(315,108,101,32) # Observados
(n <- sum(o)) # Tamanho da amostra
(k <- length(o)) # Número de categorias
p <- c(9/16,3/16,3/16,1/16) # Proporção 9:3:3:1
(e <- n*p) # Valores esperados se a prop. for 9:3:3:1
(qui <- sum((o-e)^2/e)) # Estatística do teste
1-pchisq(qui,k-1) # Valor p
chisq.test(o,p=p) # Pela função 'chisq.test'
```
### Testes Paramétricos Bivariados
#### TESTE 6 - Teste F (de Hartley) de igualdade de variâncias {-}
<!-- p. 454 -->
**Hipótese avaliada**
A variância do universo 1 é igual à variância do universo 2.
**Suposições**
S1. Os tamanhos de amostra $n1$ e $n2$ são similares.
**Estatística do teste**
Sob $H_0: \sigma_1=\sigma_2$,
\begin{equation}
F_{max}=\frac{s_{max}^2}{s_{min}^2} \sim \mathcal{F}(n_{max}-1,n_{min}-1),
(\#eq:f-teste-var-bi)
\end{equation}
onde $s_{max}^2$ e $s_{min}^2$ são respectivamente a maior e menor variância amostral, e $n_{max}$ e $n_{min}$ correspondem respectivamente ao tamanho de amostra associado à amostra de maior e menor variância.
**Valor-p**
Sob $H_0: \sigma_1=\sigma_2$,
\begin{equation}
\text{Valor-p} = 2Pr(F \ge F_{max}).
(\#eq:f-teste-var-bi-p-bi)
\end{equation}
Sob $H_0: \sigma_1 \ge \sigma_2$,
\begin{equation}
\text{Valor-p} = Pr(F \ge F_{max}).
(\#eq:f-teste-var-bi-p-uni-inf)
\end{equation}
Sob $H_0: \sigma_1 \le \sigma_2$,
\begin{equation}
\text{Valor-p} = Pr(F < F_{max}).
(\#eq:f-teste-var-bi-p-uni-sup)
\end{equation}
```{r}
x <- 1:10
y <- c(7:20)
nx <- length(x)
ny <- length(y)
(Fmax <- var(y)/var(x))
2*(1-pf(Fmax,ny-1,nx-1)) # H_0: σ_1 = σ_2
1-pf(Fmax,ny-1,nx-1) # H_0: σ_1 ≥ σ_2
pf(Fmax,ny-1,nx-1) # H_0: σ_1 ≤ σ_2
# Utilizando a função var.test
var.test(x,y) # H_0: σ_1 = σ_2
var.test(x,y, alternative = 'less') # H_0: σ_1 ≥ σ_2
var.test(x,y, alternative = 'greater') # H_0: σ_1 ≤ σ_2
```
#### TESTE 7 - Teste $z$ para médias de duas amostras independentes {-}
<!-- p. 470 -->
**Hipótese avaliada**
Duas amostras independentes representam duas populações com valores médios diferentes?
**Suposições**
S1. Cada amostra foi selecionada aleatoriamente da população que representa;
S2. A distribuição dos dados na população subjacente de cada amostra é normal;
S3. (*Homogeneidade de variâncias*) A variância da população representada pela amostra 1 é igual à variância da população representada pela amostra 2 ($\sigma_1^2=\sigma_2^2$).
**Testes relacionados**
TESTE 16 - Teste dos postos de Mann-Whitney para duas amostras independentes
**Estatística do teste**
Sob $H_0: \mu_1-\mu_2 = \Delta_0$,
\begin{equation}
z_{teste} = \frac{(\bar{x}_1-\bar{x}_2) - \Delta_0}{\sqrt{\frac{\sigma_1^2}{n_1}+\frac{\sigma_2^2}{n_2}}} \sim \mathcal{N}(0,1),
(\#eq:z-teste-media-bi)
\end{equation}
onde $n_1$ e $n_2$ são os tamanhos das amostras, $\bar{x}_1$ e $\bar{x}_2$ representam as médias amostrais e $\sigma_1^2$ e $\sigma_2^2$ são as variâncias universais dos universos 1 e 2.
**Valor-p**
Sob $H_0: \mu_1-\mu_2 = \Delta_0$,
\begin{equation}
\text{Valor-p} = 2Pr(Z \le -|z_{teste}|).
(\#eq:z-teste-media-bi-p-bi)
\end{equation}
Sob $H_0: \mu_1-\mu_2 \ge \Delta_0$,
\begin{equation}
\text{Valor-p} = Pr(Z \le z_{teste}).
(\#eq:z-teste-media-bi-p-uni-inf)
\end{equation}
Sob $H_0: \mu_1-\mu_2 \le \Delta_0$,
\begin{equation}
\text{Valor-p} = Pr(Z \ge z_{teste}).
(\#eq:z-teste-media-bi-p-uni-sup)
\end{equation}
```{example, z-duas-medias-indep}
```
```{r}
x <- 1:10
y <- c(7:20)
nx <- length(x)
ny <- length(y)
mx <- mean(x)
my <- mean(y)
sigmax2 <- var(x)*(nx-1)/nx
sigmay2 <- var(y)*(ny-1)/ny
(zt <- (mx-my)/sqrt(sigmax2/nx+sigmay2/ny))
2*pnorm(-abs(zt)) # H_0: µ_1-µ_2 = 0
pnorm(zt) # H_0: µ_1-µ_2 ≥ 0
1-pnorm(zt) # H_0: µ_1-µ_2 ≤ 0
```
#### TESTE 8 - Teste $t$ para médias de duas amostras independentes {-}
<!-- p. 447 -->
**Hipótese avaliada**
Duas amostras independentes representam duas populações com valores médios diferentes?
**Suposições**
S1. Cada amostra foi selecionada aleatoriamente da população que representa;
S2. A distribuição dos dados na população subjacente de cada amostra é normal.
**Testes relacionados**
TESTE 16 - Teste dos postos de Mann-Whitney para amostras independentes
**Estatística do teste**
Sob $H_0: \mu_1-\mu_2 = \Delta_0$ e $\sigma_1 = \sigma_2$,
\begin{equation}
t_{teste} = \frac{(\bar{x}_1-\bar{x}_2) - \Delta_0}{\sqrt{\left[ \frac{(n_1-1)s_1^2 + (n_2-1)s_2^2}{n_1+n_2-2} \right] \left[ \frac{1}{n_1}+\frac{1}{n_2} \right]}} \sim \mathcal{t}(gl).
(\#eq:t-teste-media-bi-vars-iguais)
\end{equation}
Sob $H_0: \mu_1-\mu_2 = \Delta_0$ e $\sigma_1 \ne \sigma_2$,
\begin{equation}
t_{teste} = \frac{(\bar{x}_1-\bar{x}_2) - \Delta_0}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}} \sim \mathcal{t}(gl),
(\#eq:t-teste-media-bi-vars-dif)
\end{equation}
onde $n_1$ e $n_2$ são os tamanhos das amostras, $\bar{x}_1$ e $\bar{x}_2$ representam as médias amostrais e $s_1^2$ e $s_2^2$ são as variâncias amostrais dos universos 1 e 2. Se as variâncias forem admitidas iguais ($\sigma_1 = \sigma_2$), os graus de liberdade são calculados utilizando a expressão $$gl = n_1 + n_2-2.$$ No caso de as variâncias serem admitidas diferentes ($\sigma_1 \ne \sigma_2$), calculam-se os graus de liberdade com a abordagem de Welch, dados por $$gl = \frac{\left( \frac{s_1^2}{n_1} + \frac{s_2^2}{n_2} \right)^2}{ \frac{(s_1^2/n_1)^2}{n_1-1} + \frac{(s_2^2/n_2)^2}{n_2-1}}.$$
**Valor-p**
Sob $H_0: \mu_1-\mu_2 = \Delta_0$,
\begin{equation}
\text{Valor-p} = 2Pr(t \le -|t_{teste}|).
(\#eq:t-teste-media-bi-p-bi)
\end{equation}
Sob $H_0: \mu_1-\mu_2 \ge \Delta_0$,
\begin{equation}
\text{Valor-p} = Pr(t \le t_{teste}).
(\#eq:t-teste-media-bi-p-uni-inf)
\end{equation}
Sob $H_0: \mu_1-\mu_2 \le \Delta_0$,
\begin{equation}
\text{Valor-p} = Pr(t \ge t_{teste}).
(\#eq:t-teste-media-bi-p-uni-sup)
\end{equation}
```{example, t-duas-medias-indep}
```
```{r}
x <- 1:10
y <- c(7:20)
nx <- length(x)
ny <- length(y)
mx <- mean(x)
my <- mean(y)
sx2 <- var(x)
sy2 <- var(y)
sp2 <- ((nx-1)*sx2 + (ny-1)*sy2)/(nx+ny-2)
# dando uma olhada nas variâncias
var.test(x,y)
# estatística do teste para variâncias iguais
(tt_igual <- (mx-my)/sqrt(sp2*(1/nx+1/ny)))
# estatística do teste para variâncias diferentes
(tt_welch <- (mx-my)/sqrt(sx2/nx+sy2/ny))
# graus de liberdade para variâncias iguais
(gl_igual <- nx+ny-2)
# graus de liberdade para variâncias diferentes
(gl_welch <- (sx2/nx+sy2/ny)^2/((sx2/nx)^2/(nx-1) + (sy2/ny)^2/(ny-1)))
# H_0: µ_1-µ_2 = 0, variâncias iguais
2*pt(-abs(tt_igual), gl_igual)
# H_0: µ_1-µ_2 ≥ 0, variâncias iguais
pt(tt_igual, gl_igual)
# H_0: µ_1-µ_2 ≤ 0, variâncias iguais
1-pt(tt_igual, gl_igual)
# H_0: µ_1-µ_2 = 0, variâncias diferentes
2*pt(-abs(tt_welch), gl_welch)
# H_0: µ_1-µ_2 ≥ 0, variâncias diferentes
pt(tt_welch, gl_welch)
# H_0: µ_1-µ_2 ≤ 0, variâncias diferentes
1-pt(tt_welch, gl_welch)
# via t.test (facilita uma barbaridade!)
# H_0: µ_1-µ_2 = 0, σ_1 = σ_2
t.test(1:10, y = c(7:20), var.equal = T)
# H_0: µ_1-µ_2 ≥ 0, σ_1 = σ_2
t.test(1:10, y = c(7:20), var.equal = T, alternative = 'less')
# H_0: µ_1-µ_2 ≤ 0, σ_1 = σ_2
t.test(1:10, y = c(7:20), var.equal = T, alternative = 'greater')
# H_0: µ_1-µ_2 = 0, σ_1 ≠ σ_2
t.test(1:10, y = c(7:20), var.equal = F)
# H_0: µ_1-µ_2 ≥ 0, σ_1 ≠ σ_2
t.test(1:10, y = c(7:20), var.equal = F, alternative = 'less')
# H_0: µ_1-µ_2 ≤ 0, σ_1 ≠ σ_2
t.test(1:10, y = c(7:20), var.equal = F, alternative = 'greater')
```
<!-- #### Teste $z$ para médias de duas amostras dependentes -->
<!-- p. 785 -->
<!-- **Hipótese avaliada** -->
<!-- **Suposições** -->
<!-- **Estatística do teste** -->