From 16a681f77fff15818d2cc83168e908bbf0a142a0 Mon Sep 17 00:00:00 2001 From: chiachun0511 Date: Wed, 3 Oct 2018 18:29:09 +0800 Subject: [PATCH] Update mnist.md --- tutorials/mnist.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/tutorials/mnist.md b/tutorials/mnist.md index 3e39641..bdc9f76 100644 --- a/tutorials/mnist.md +++ b/tutorials/mnist.md @@ -101,7 +101,7 @@ model.add(tf.layers.maxPooling2d({ ### 增加剩餘層 -重複層結構是神經網路中常見的模式。讓我們在模型裡再增加第二個卷積層,然後再增加一個池化層。注意我們的第二個卷積層裡,我們把過濾器的數量從 8 調到 16。另外還要注意我們沒有特別指定 `inputShape`,因為它可以從上一層的輸出自己推裡出來: +重複層結構是神經網路中常見的模式。讓我們在模型裡再增加第二個卷積層,然後再增加一個池化層。注意我們的第二個卷積層裡,我們把過濾器的數量從 8 調到 16。另外還要注意我們沒有特別指定 `inputShape`,因為它可以從上一層的輸出自己推理出來: ```javascript model.add(tf.layers.conv2d({ @@ -300,4 +300,4 @@ const accuracy = history.history.acc[0]; - 更多卷積網路,請查看 Chris Olah 的 [Unerstanding Convolutions](http://colah.github.io/posts/2014-07-Understanding-Convolutions/)。 - 更多關於損失,請看 [Machine Learning Crash Course](https://developers.google.com/machine-learning/crash-course/) 的 [Descending into ML](https://developers.google.com/machine-learning/crash-course/descending-into-ml/) 來深入了解機器學習損失。 -- 更多梯度下降和 SGD,請查看 [Machine Learning Crash Course](https://developers.google.com/machine-learning/crash-course/) 的 [Reducing Loss](https://developers.google.com/machine-learning/crash-course/reducing-loss/)。 \ No newline at end of file +- 更多梯度下降和 SGD,請查看 [Machine Learning Crash Course](https://developers.google.com/machine-learning/crash-course/) 的 [Reducing Loss](https://developers.google.com/machine-learning/crash-course/reducing-loss/)。