-
Notifications
You must be signed in to change notification settings - Fork 9
/
13-deep.html
1012 lines (586 loc) · 23.7 KB
/
13-deep.html
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
<!DOCTYPE html>
<html xmlns="http://www.w3.org/1999/xhtml" lang="" xml:lang="">
<head>
<title>Aprendizaje profundo</title>
<meta charset="utf-8" />
<meta name="author" content="Alberto Torres y Víctor Gallego" />
<meta name="date" content="2019-06-05" />
<link href="libs/remark-css-0.0.1/default.css" rel="stylesheet" />
<link rel="stylesheet" href="custom.css" type="text/css" />
</head>
<body>
<textarea id="source">
class: center, middle, inverse, title-slide
# Aprendizaje profundo
## Curso de aprendizaje automático para el INE
### Alberto Torres y Víctor Gallego
### 2019-06-05
---
class: middle, center, inverse
# Introducción
---
## Repaso de Deep Learning
* Modelo principal: red profunda (**feed-forward**): composición de **proyecciones lineales** y **no-linealidades**
`\begin{align}
h^{(i+1)} &= Wz^{(i)} + b \\
z^{(i+1)} &= \sigma (h^{(i+1)}) \\
\end{align}`
* Al final: añadir coste apropiado para regresión o clasificación.
* Las redes neuronales se conocen desde mediados del siglo XX, pero su fuerte resurgimiento no fue hasta esta década:
* Paralelización en tarjetas gráficas (**GPUs**).
* Librerías de **diferenciación automática**.
---
## Diferenciación Automática (AD) (1)
* ¿Cómo calcular el gradiente en una red profunda?
--
* **A mano**: no escala a nuevas arquitecturas, propenso a errores.
* **Diferenciación numérica**: acumulación de errores y elevado coste computacional.
`\begin{equation}
\frac{\partial E_n}{\partial w_{ji}} = \frac{E_n(w_{ji} + \epsilon) - E_n(w_{ji} - \epsilon)}{2 \epsilon} + O(\epsilon^2)
\end{equation}`
* **Diferenciación simbólica**: manipulación exacta de expresiones (mediante tablas de derivadas), pero explosión en la cantidad de términos:
<center>
![:scale 50%](./img/ad1.png)
</center>
---
## Diferenciación Automática (AD) (2)
* Surge la **diferenciación automática o algorítmica**: aplica diferenciación simbólica pero solo a expresiones simples, y al componerlas, actualiza los resultados numéricos parciales (que serán **exactos**)
* Ejemplo para calcular la derivada de `\(y = f(x_1, x_2) = \log (x_1) + x_1 x_2 - \sin (x_2)\)` en `\((x_1, x_2) = (2, 5)\)`:
<center>
![:scale 100%](./img/ad2.png)
</center>
---
## Diferenciación Automática (AD) (3)
* ¿Por qué **backpropagación**?
* Ejemplo: considera una serie de funciones `\(f : \mathbb{R}^n \rightarrow \mathbb{R}^m\)`, `\(g : \mathbb{R}^m \rightarrow \mathbb{R}^m\)` y `\(h : \mathbb{R}^m \rightarrow \mathbb{R}\)`. Queremos obtener la derivada de su composición, `\(\frac{\partial (h \circ g \circ f)}{\partial x}\)`
* Queda que
`\begin{equation}
\frac{\partial (h \circ g \circ f)}{\partial x} = \frac{\partial h}{\partial g} \frac{\partial g}{\partial f} \frac{\partial f}{\partial x}
\end{equation}`
* Asociando `\(\frac{\partial h}{\partial g} ( \frac{\partial g}{\partial f} \frac{\partial f}{\partial x} )\)`, queda un producto matriz-matriz y otro producto vector-matriz.
* Asociando `\(( \frac{\partial h}{\partial g} \frac{\partial g}{\partial f} )\frac{\partial f}{\partial x}\)`, ¡solo hay que hacer productos vector-matriz!: mucho más eficiente.
--
* En ML es habitual optimizar funciones de tipo `\(\mathbb{R}^d \rightarrow \mathbb{R}\)`, por tanto es más eficiente propagar los gradientes hacia atrás (**backpropagation**) que hacia adelante (**forward propagation**).
---
## Optimizando mediante SGD o Adam.
* Una vez hemos calculado el gradiente en un punto mediante AD, las opciones actuales más populares son
* **Descenso por el gradiente estocástico** (SGD): ya visto, estimación usando mini-batches.
* **Adam** (2014: https://arxiv.org/abs/1412.6980) : corrige el gradiente estimando una ventana móvil de su media y de su varianza.
<center>
![:scale 80%](./img/adam.png)
</center>
---
## Volviendo a Deep Learning
* Ya tenemos todos los ingredientes:
* Datasets enormes.
* Redes neuronales como **aproximadores universales**.
* Librerías para **diferenciación automática**: tensorflow, keras, pytorch...
* Potentes CPUs o GPUs para **paralelizar a lo largo de cada ejemplo del mini-batch**.
* ¿Qué falta en muchas ocasiones?
--
* Solo teóricamente las redes neuronales son totalmente expresivas.
* Conviene añadir un **sesgo inductivo** (**inductive bias**) para ayudar al aprendizaje:
* Imágenes, señales: invarianza a traslaciones, escala: **redes convolucionales**.
* Texto, secuencias: sensibilidad al orden de los símbolos: **redes recurrentes**.
---
class: middle, center, inverse
# Redes recurrentes (RNNs)
---
## Intuición
* Las redes neuronales recurrentes (*recurrent neural networks*, RNNs) surgen de la necesidad de **procesar secuencias** de datos (fundamentalmente textos).
* ¿Qué hacemos cuando los inputs pueden tener diferentes longitudes?
--
* **Idea** añadir conexiones a modo de feedback (<span style="color:green"> `\(\rightarrow\)` </span>)
<center>
![:scale 90%](./img/rnn1.png)
</center>
---
## Esquema original
* Modelo de **Elman**: la red mantiene un estado interno `\(h_t\)` que se va actualizando en cada iteración
`\begin{equation}
h_t = f_W ( h_{t-1}, x_t)
\end{equation}`
* En concreto, un posible diseño es
`\begin{align}
h_t &= \tanh (W_{hh}h_{t-1} + W_{xh}x_t) \\
y_t &= W_{hy} h_t
\end{align}`
* Los **pesos se reutilizarn en cada instante `\(t\)`**:
* aprende patrones independientemente de su posición.
* reducción en el número de parámetros.
* Podemos desarrollar la recurrencia a lo largo de `\(t\)` (ver siguientes):
---
## Grafo computacional
* Ejemplo de arquiectura **many-to-one** (ej: asignar sentimiento (+ ó -) a un tweet (secuencia de palabras))
<center>
![:scale 90%](./img/rnn_m2o.png)
</center>
---
## Grafo computacional
* Ejemplo de arquiectura **many-to-many** (ej: predicción de una señal: en cada `\(x_t\)` predecimos `\(x_{t+1}\)` con el valor `\(y_t\)`))
<center>
![:scale 90%](./img/rnn_m2m.png)
</center>
---
## Ejemplo (many to many)
* Predicción del siguiente carácter.
* Representamos cada carácter mediante OHE, nuestro vocabulario es: h, e, l, o `\(\in \lbrace 0, 1 \rbrace^4\)`.
<center>
![:scale 50%](./img/rnn_char.png)
</center>
---
## Entrenamiento
* Mismo esquema de backpropagación que para las redes estándar, solo que ahora se propaga hacia atrás en el tiempo (como si la RNN estuviera desenrrollada).
* Para mejorar la estabilidad, solo se propaga hacia atrás un número de pasos limitado (**truncated backpropagation**)
* SGD o Adam.
<center>
![:scale 60%](./img/tbptt.png)
</center>
---
## Problema de la RNN original (1)
* La backpropagación desde `\(h_t\)` a `\(h_{t-1}\)` necesita multiplicar por `\(W\)`.
<center>
![:scale 70%](./img/gf.png)
</center>
* Al hacerlo a lo largo del tiempo:
<center>
![:scale 80%](./img/gf2.png)
</center>
* Calcular el gradiente para `\(h_0\)` implica multiplicaciones de `\(W\)`.
---
## Problema de la RNN original (2)
* Calcular el gradiente para `\(h_0\)` implica multiplicaciones de `\(W\)`:
* El mayor valor singular (autovalor) de `\(W\)` es `\(> 1\)`: explosión del gradiente.
* Solución: acotar manualmente el gradiente (**gradient clipping**).
* El mayor valor singular (autovalor) de `\(W\)` es `\(< 1\)`: desvanecimiento del gradiente.
* Solución: nueva arquitecturas (LSTM, GRU).
---
## Long-Short Term Memory network (LSTM)
* Introducidas por Hochreiter en 1997, aunque no se usaron mucho hasta esta década (aplicaciones en NLP).
* Añadimos un nuevo estado (cell, `\(c_t\)`) y varias compuertas (gates) para mejorar el flujo del gradiente.
<center>
![:scale 30%](./img/lstm1.png)
</center>
---
## LSTM (2)
* Compuerta de **olvido** (forget).
* Decide qué partes olvidar del estado anterior.
<center>
![:scale 50%](./img/lstm2.png)
</center>
`\begin{equation}
f_t = \sigma (W_f \left[ h_{t-1}, x_t \right] + b_f)
\end{equation}`
---
## LSTM (3)
* Compuerta de **actualización** (update).
* Decide qué modificar para el nuevo estado.
<center>
![:scale 50%](./img/lstm3.png)
</center>
`\begin{align}
i_t &= \sigma (W_i \left[ h_{t-1}, x_t \right] + b_i) \\
\tilde{C}_t &= \tanh (W_C \left[ h_{t-1}, x_t \right] + b_C)
\end{align}`
---
## LSTM (4)
* Compuerta de **salida** (output)
<center>
![:scale 50%](./img/lstm4.png)
</center>
`\begin{align}
o_t &= \sigma (W_o \left[ h_{t-1}, x_t \right] + b_o) \\
h_t &= o_t * \tanh (C_t)
\end{align}`
---
## LSTM en resumen
* Las ecuaciones completas son
<center>
![:scale 30%](./img/lstm_ecs.png)
</center>
* Ahora para hacer backpropagación de `\(c_t\)` a `\(c_{t-1}\)` no hace falta multiplicar por `\(W\)`!!
<center>
![:scale 50%](./img/lstm_5.png)
</center>
---
## Resumen
* Las RNNs permiten gran flexibilidad en el diseño de la arquitectura.
* Las RNNs originales son simples pero no funcionan bien.
* Más común: utilizar **LSTM** para "mejorar" el gradiente.
* El flujo de gradiente hacia atrás puede explotar o desvanecerse en las RNNs: la **explosión** se controla acotando el gradiente (clipping). El **desvanecimiento** mediante conexiones aditivas (LSTM).
* Las búsqueda de arquitecturas más simples es área de investigación actual.
* Todavía hay escasos avances teóricos, se necesita más investigación.
* Las **gated recurrent units** (GRU) son algo más sencillas aunque siguen el mismo mecanismo de compuertas (https://www.aclweb.org/anthology/D14-1179)
---
class: middle, center, inverse
# Aplicación de RNNs a Procesamiento de Lenguaje Natural
---
## Cambio de paradigma
* Pre 2000s: **simbólico, basado en reglas**
* Lenguaje entendido como conjunto de elementos y reglas para combinarlos.
* Gramáticas independientes de contexto (Chomsky).
* Más adecuado a lenguajes artificiales (de programación) que naturales (humanos).
<center>
![:scale 30%](./img/nlp1.png)
</center>
* Después: **estadístico, basado en datos**
* Lenguaje entendido como probabilidades de secuencias de palabras.
* Cálculo de frecuencias de palabras, n-gramas, etc.
* Más adecuado a lenguajes naturales que artificiales.
* Combinación con modelos profundos: **estado del arte**.
---
## De n-gramas a word embeddings (1)
* **Bag of words**: contamos la aparición (o frecuencia) de cada palabra: <span style="color:blue">El atento alumno `\(\rightarrow\)` (El), (atento), (alumno)</span>.
* Representaríamos la frase como
$$
\left(0 , \ldots, 1, 0, \ldots, 0, 1, 0, \ldots, 1, 0 \right) \in \lbrace 0, 1 \rbrace^{|V|}
$$
* donde `\(|V|\)` es el número de palabras de nuestro vocabulario `\(V\)`.
* Problema: no tiene en cuenta el orden (y contexto) de las palabras. Solución (parcial):
* **2-gramas**: contamos ahora pares consecutivos de palabras: <span style="color:blue">(El, atento), (atento, alumno)</span>.
* Ahora la representación es sobre `\(\lbrace 0, 1 \rbrace^{|V|^2}\)`.
--
* **n-gramas**: explosión combinatoria...
* Ha sido lo estándar hasta `\(\sim 2013\)`. ¿Podemos encontrar una representación más compacta?
---
## De n-gramas a word embeddings (2)
* Cada palabra (representada mediante OHE) se mapea a un espacio continuo: `\(\lbrace 0, 1 \rbrace^{|V|} \rightarrow \mathbb{R}^m\)`.
* Mediante una transformación lineal `\(z_i = E w_i\)` donde `\(E\)` es una matriz de tamaño `\(m \times |V|\)`. Típicamente `\(m = 300 << |V|\)`.
<center>
![:scale 60%](./img/wordemb.png)
</center>
* **Combaten la catástrofe de la dimensionalidad**, mediante una compresión de los datos, pasando de un espacio discreto a uno continuo.
* Al proyectar a un espacio continuo, esperamos que palabras parecidas (sinónimos) se encuentren cerca (bajo la métrica euclidea).
---
## Álgebra lineal en el espacio de palabras (1)
* **One-hot encoding**: no hay noción de vecindad entre palabras, cualquier palabra está igual de lejos que las demás.
* **Word embeddings** (codificación densa): podemos usar la distancia euclídea (u otras) en `\(\mathbb{R}^m\)`.
<center>
![:scale 32%](./img/wordemb2.png)
</center>
---
## Álgebra lineal en el espacio de palabras (2)
* Como estamos en un espacio vectorial ( `\(\mathbb{R}^m\)` ), podemos realizar operaciones con vectores (word embeddings).
* Aprenden ciertas analogías entre palabras.
<center>
![:scale 60%](./img/wordemb3.png)
</center>
---
## word2vec (2013)
* La pregunta del millón: **¿cómo obtener la matriz `\(E\)` de word embeddings?**
--
* Basado en la **hipótesis distribucional** del lenguaje (J. Firth 1957): el significado de una palabra puede inferirse a partir del contexto (palabras vecinas en las que aparece)
* El modelo word2vec presenta dos variantes:
* **CBoW**: dado un contexto, predecir palabra central.
* **Skip-gram**: dada la palabra central, predecir el contexto.
<center>
![:scale 60%](./img/wordemb4.jpg)
</center>
---
## Uso de embeddings preentrenados
* Aunque los embeddings pueden inicializarse aleatoriamente (como los pesos de una red neuronal estándar) y aprenderse durante la tarea,
* Una técnica habitual es cargar unos **word embeddings preentrenados**, para ahorrar tiempo y datos.
* Una vez ya tenemos los embeddings, se los acoplamos a cualquier modelo (regresión logística, red neuronal) y procedemos con el entrenamiento.
* https://fasttext.cc/ mejora de word2vec (contiene información de prefijos y sufijos).
* https://fasttext.cc/docs/en/crawl-vectors.html en castellano, entrenados sobre los artículos de la Wikipedia y CommonCrawl.
---
## Generación de textos
* https://openai.com/blog/better-language-models/
* GPT-2 es un modelo de lenguaje entrenado sobre un corpus de 40GB de datos (8 millones de páginas webs).
* La versión grande del modelo consta de 1500 millones de parámetros.
* Generación de historias online en https://talktotransformer.com/
---
## Traducción automática
* Modelos **seq2seq**: composición de many-to-one + one-to-many.
* `\(x_1, \ldots, x_T\)` es la frase en el idioma original.
* `\(y_1, \ldots, y_{T'}\)` es la frase en el idioma de destino.
<center>
![:scale 80%](./img/seq2seq.png)
</center>
* Sequence to Sequence Learning with Neural Networks: https://arxiv.org/abs/1409.3215
* Actualmente usado en **Google Traslate**: https://ai.google/research/pubs/pub45610
---
## Subtitulación de imágenes
<center>
![:scale 80%](./img/caption.png)
</center>
* Explain Images with Multimodal Recurrent Neural Networks: https://arxiv.org/pdf/1410.1090.pdf
* Show and Tell: A Neural Image Caption Generator: https://arxiv.org/pdf/1411.4555.pdf
---
class: middle, center, inverse
# Redes convolucionales
---
## Introducción
* Tipo de red neuronal para datos con topología similar a una rejilla
1. 1D, series temporales, audio
2. 2D, imágenes, datos espaciales
3. 3D, video, datos espacio-temporales, meteorología
* Red convolucional: en al menos una capa se usan convoluciones en lugar de operaciones con matrices
---
## Competición ImageNet
* Más de 14 millones de imágenes anotadas a mano
* Más de 20,000 categorias
* Desde 2010, competición anual de clasificación automática (ILSVRC)
* únicamente 1000 categorias
* en 2011, el mejor error era de aprox. 25%
* en 2017, 29/38 equipos tenían un error menor del 5%
---
## Historia
1. En 1990, [Lecun et al.](http://yann.lecun.com/exdb/publis/pdf/lecun-90c.pdf) usa una CNN para leer dígitos de códigos postales
* una de las primeras aplicaciones reales de una red neuronal
* más del 90% de tasa de acierto
2. En 2012, [Krizhevsky et al.](https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf) usan una CNN para ganar la competición ILSVRC2012
* tasa de acierto (top 5), 15.3%
* segundo mejor modelo, 26.2%
3. A partir de 2012 múltiples arquitecturas más complejas siguen reduciendo el error:
* 2014: VGG-16 (7.3%), GoogleNet (6.7%)
* 2015: Microsoft ResNet (3.57%)
---
## Conexiones densas (*fully connected*)
.center[
![](./img/fullly_connected.png)
]
---
## Conexiones *sparse* (*locally connected*)
.center[
![](./img/locally_connected.svg)
]
---
## Convolución en 2D
* `\(I\)` es la matriz de entrada (2D)
* `\(K\)` es el kernel (2D)
`$$S(i, j) = (K * I)(i,\, j) = \sum_m \sum_n I(i+m,\, j+n) K(m,\, n)$$`
* La convolución o filtro se aplica a toda la imágen con los mismos pesos
* Se define con 4 parámetros:
* *stride* o paso de la convolución
* tamaño del kernel, generalmente cuadrado
* *depth*, número de filtros o convoluciones distintas a aplicar
* *padding*
---
## Ejemplo
.center[
![:scale 60%](./img/convolution.png)
[Goodfellow et al. Deep Learning (2016)](https://www.deeplearningbook.org/)
]
---
# Motivación
1. conexiones dispersas
* explotar estructura espacial
* detectar características locales (aristas, etc.)
2. compartición de pesos
* invariante frente a traslaciones
* reduce la cantidad de memoria necesaria
---
## Ejemplo características locales
![](img/edges.png)
* Imagen de la derecha: restar a cada píxel su vecino por la izquierda
* Esta operación se puede representar de forma muy eficiente con una convolución
---
## *Stride* (paso)
.center[
![:scale 90%](./img/Stride1.png)
[Fuente](https://adeshpande3.github.io/A-Beginner%27s-Guide-To-Understanding-Convolutional-Neural-Networks-Part-2/)]
---
## Ejemplos
.pull-left[
* Entrada `\(4 \times 4\)`
* Kernel `\(3 \times 3\)`
* Stride 1
* Salida `\(2 \times 2\)`
![](./img/no_padding_no_strides.gif)
]
.pull-right[
* Entrada `\(5 \times 5\)`
* Kernel `\(3 \times 3\)`
* Stride 2
* Salida `\(2 \times 2\)`
![](./img/no_padding_strides.gif)
]
---
## Padding
* En ocasiones se añade un *padding* de 0 al borde de la imágen:
1. preservar el tamaño de la entrada
2. cuando es necesario por la combinación de tamaño de entrada, tamaño de kernel y stride
* Ejemplo: entrada `\(5\times 5\)`, kernel `\(3 \times 3\)` y *stride* 2
.center[
![](./img/numerical_padding_strides.gif)
[Fuente](http://deeplearning.net/software/theano/tutorial/conv_arithmetic.html)]
---
* Generalmente la salida tiene menor tamaño que la entrada
* Aplicando padding podemos hacer que tenga el mismo o incluso mayor
* Entrada `\(5 \times 5\)`, stride 1, kernel `\(3 \times 3\)`
.pull-left[
![](img/same_padding_no_strides.gif)
.center[
Salida `\(5 \times 5\)`
]
]
.pull-right[
![](img/full_padding_no_strides.gif)
.center[
Salida `\(7 \times 7\)`
]
]
---
* A veces el padding es necesario para poder aplicar el kernel
* Ejemplo: kernel `\(3 \times 4\)`, stride 2
* La salida tiene el mismo tamaño en ambos!
.pull-left[
![](img/padding_strides.gif)
.center[
Entrada `\(5\times 5\)`
]
]
.pull-right[
![](img/padding_strides_odd.gif)
.center[
Entrada `\(6 \times 6\)`
]
]
---
## Pooling
* Capa de submuestreo no lineal
* Previene sobreajuste, reduciendo número de parámetros
* Ayuda con la invarianza frente a traslaciones
* Útil cuando interesa conocer si una característica está o no, pero no su localización exacta `\(\Rightarrow\)` clasificación imágenes
* Más habitual: **max pooling**
--
![:vspace 1]
.center[
![](./img/Max_pooling.png)
]
---
## Arquitectura típica
* Parámetros: número de *feature maps*, tamaño del kernel, stride
* Subsampling: max pooling
* Antes de las capas *fully connected*, hay que aplanar (*flatten*) la salida
![:vspace 5]
![](./img/Typical_cnn.png)
---
## Visualizando activaciones
.center[
![:scale 30%](img/cat.png)
![:scale 70%](img/first_layer_example.png)
]
---
## Primeras capas
![](img/first_layer.png)
---
## Últimas capas
![](img/last_layer.png)
---
## CAM (class activation map)
![](img/CAM.png)
---
## Ejemplo arquitectura: AlexNet
![](img/alexnet.png)
```r
model <- keras_model_sequential() %>%
layer_conv_2d(filters = 96,
kernel_size = c(11, 11),
activation = 'relu',
input_shape = c(224, 224, 3),
strides = c(4, 4),
padding = 'valid') %>%
layer_max_pooling_2d(pool_size = c(2, 2),
strides = c(2, 2),
padding = 'valid') %>%
...
```
---
class: middle, center, inverse
# Recursos adicionales
---
## Enlaces de interés
* https://reddit.com/r/LearnMachineLearning: nivel introductorio/medio
* https://reddit.com/r/machinelearning: discusiones sobre artículos y temas de actualidad
* https://medium.com/topic/machine-learning: artículos hacia audiencia general
</textarea>
<style data-target="print-only">@media screen {.remark-slide-container{display:block;}.remark-slide-scaler{box-shadow:none;}}</style>
<script src="https://remarkjs.com/downloads/remark-latest.min.js"></script>
<script src="macros.js"></script>
<script>var slideshow = remark.create({
"highlightStyle": "github",
"highlightLines": true,
"countIncrementalSlides": false
});
if (window.HTMLWidgets) slideshow.on('afterShowSlide', function (slide) {
window.dispatchEvent(new Event('resize'));
});
(function(d) {
var s = d.createElement("style"), r = d.querySelector(".remark-slide-scaler");
if (!r) return;
s.type = "text/css"; s.innerHTML = "@page {size: " + r.style.width + " " + r.style.height +"; }";
d.head.appendChild(s);
})(document);
(function(d) {
var el = d.getElementsByClassName("remark-slides-area");
if (!el) return;
var slide, slides = slideshow.getSlides(), els = el[0].children;
for (var i = 1; i < slides.length; i++) {
slide = slides[i];
if (slide.properties.continued === "true" || slide.properties.count === "false") {
els[i - 1].className += ' has-continuation';
}
}
var s = d.createElement("style");
s.type = "text/css"; s.innerHTML = "@media print { .has-continuation { display: none; } }";
d.head.appendChild(s);
})(document);
// delete the temporary CSS (for displaying all slides initially) when the user
// starts to view slides
(function() {
var deleted = false;
slideshow.on('beforeShowSlide', function(slide) {
if (deleted) return;
var sheets = document.styleSheets, node;
for (var i = 0; i < sheets.length; i++) {
node = sheets[i].ownerNode;
if (node.dataset["target"] !== "print-only") continue;
node.parentNode.removeChild(node);
}
deleted = true;
});
})();</script>
<script>
(function() {
var links = document.getElementsByTagName('a');
for (var i = 0; i < links.length; i++) {
if (/^(https?:)?\/\//.test(links[i].getAttribute('href'))) {
links[i].target = '_blank';
}
}
})();
</script>
<script>
slideshow._releaseMath = function(el) {
var i, text, code, codes = el.getElementsByTagName('code');
for (i = 0; i < codes.length;) {
code = codes[i];
if (code.parentNode.tagName !== 'PRE' && code.childElementCount === 0) {
text = code.textContent;
if (/^\\\((.|\s)+\\\)$/.test(text) || /^\\\[(.|\s)+\\\]$/.test(text) ||
/^\$\$(.|\s)+\$\$$/.test(text) ||
/^\\begin\{([^}]+)\}(.|\s)+\\end\{[^}]+\}$/.test(text)) {
code.outerHTML = code.innerHTML; // remove <code></code>
continue;
}
}
i++;
}
};
slideshow._releaseMath(document);
</script>
<!-- dynamically load mathjax for compatibility with self-contained -->