- 课程主页
- 中文笔记
- 课程视频
- 实验环境推荐使用Linux或者Mac系统,以下环境搭建方法皆适用:
Docker环境配置
本地环境配置
- Dr.Wu 博客71篇(机器学习、深度学习、强化学习、对抗网络)
- Dr.Wu 本人知乎
- 深度学习斯坦福教程
- 廖雪峰python3教程
- github教程
- 莫烦机器学习教程
- 深度学习经典论文
- 斯坦福cs229代码(机器学习算法python徒手实现)
- 吴恩达机器学习新书:machine learning yearning
- 哈佛大学NLP实验室
- 清华大学NLP实验室总结机器阅读论文、数据集
- 本人博客(机器学习基础算法专题)
- 本人博客(深度学习专题)
- 斯坦福cs20I课件
- AI比赛经验+开源代码汇总
- Deep Learning in Natural Language Processing(微软:邓力博士,清华:刘洋博士)
- 机器像人一样交流 (斯坦福: 李纪为博士)
自然语言是人类智慧的结晶,自然语言处理是人工智能中最为困难的问题之一,而对自然语言处理的研究也是充满魅力和挑战的。 通过经典的斯坦福cs224n教程,让我们一起和自然语言处理共舞!也希望大家能够在NLP领域有所成就!
- 了解python基础知识
- 了解高等数学、概率论、线性代数知识
- 了解基础机器学习算法:梯度下降、线性回归、逻辑回归、Softmax、SVM、PAC(先修课程斯坦福cs229 或者周志华西瓜书)
- 具有英语4级水平(深度学习学习材料、论文基本都是英文,一定要阅读英文原文,进步和提高的速度会加快!!!!)
为了让大家逐渐适应英文阅读,复习材料我们有中英两个版本,但是推荐大家读英文
- 机器学习中的数学基本知识
- 统计学习方法
大学数学课本(从故纸堆里翻出来^_^)
每周具体时间划分为4个部分:
- 1部分安排周一到周二
- 2部分安排在周四到周五
- 3部分安排在周日
- 4部分作业是本周任何时候空余时间
- 周日晚上提交作业运行截图
- 周三、周六休息^_^
训练营的作业自检系统已经正式上线啦!只需将作业发送到训练营公共邮箱即可,训练营以打卡为主,不用提交作业。以下为注意事项:
<0> 课程资料:链接 密码:zwjr
<1> 训练营代码公共邮箱:[email protected]
<2> 每周做作业,作业提交时间点:一整个Assignment代码全部完成后再提交
<3> 将每次作业压缩成zip文件,文件名为“NLP学期+学号+作业编号”,例如第二期学员:"NLP020037-01.zip"
<4> 注意不要改变作业中的《方法名》《类名》不然会检测失败!!
<5> 查询自己成绩:
- 自然语言处理和深度学习简介
- 课件: lecture01
- 观看视频1
- 学习笔记:自然语言处理与深度学习简介
- 词的向量表示1:
- 课件: lecture02
- 观看视频2
- 学习笔记:wordvecotor
- 论文导读:一个简单但很难超越的Sentence Embedding基线方法
- 论文原文: paper
- 论文分析: highlight
- 论文笔记:Sentence Embedding
- 1.1 Softmax 算法
- 1.2 Neural Network Basics 神经网络基础实现
- 高级词向量表示:word2vec 2
- 课件: lecture03
- 观看视频3
- 学习笔记: word2vec-2
- Word Window分类与神经网络
- 课件: lecture04
- 观看视频4
- 学习笔记:Word Window分类与神经网络
- 论文导读:词语义项的线性代数结构与词义消歧
- 论文原文: paper
- 论文分析: highlight
- 论文笔记:词语义项的线性代数结构与词义消歧
- 1.3 word2vec 实现
- 1.4 Sentiment Analysis 情绪分析
- 反向传播与项目指导:Backpropagation and Project Advice
- 依赖解析:Dependency Parsing
- 论文导读:高效文本分类
- 作业: Assignment 2 准备
- 2.0.1 预习TensorFlow
- 2.0.2 仔细阅读作业2的要求,自学作业里要求里提到的神经网络训练方法
- TensorFlow入门
- 课件: lecture07
- 观看视频
- 学习笔记:TensorFlow
- RNN和语言模型
- 论文导读:词嵌入对传统方法的启发
- 论文原文: paper
- 论文分析: highlight
- 论文笔记:词嵌入对传统方法的启发
- 2.1 Tensorflow Softmax 基于TensorFlow的softmax分类
- 2.2 Neural Transition-Based Dependency Parsing 基于神经网络的依赖分析
- 高级LSTM及GRU:LSTM and GRU
- 课件: lecture09
- 观看视频
- 学习笔记: 高级LSTM及GRU
- 期中复习
- 课件: lecture-mid
- 观看视频
- 论文导读:基于转移的神经网络句法分析的结构化训练
- 论文原文: paper
- 论文分析: highlight
- 论文笔记:基于神经网络句法分析的结构化训练
- 2.3 Recurrent Neural Networks: Language Modeling 循环神经网络语言建模
- 机器翻译、序列到序列、注意力模型:Machine Translation, Seq2Seq and Attention
- 课件: lecture10
- 观看视频
- 学习笔记: 机器翻译、序列到序列、注意力模型
- GRU和NMT的进阶
- 课件: lecture11
- 观看视频
- 学习笔记:GRU和NMT的进阶
- 论文导读:谷歌的多语种神经网络翻译系统
- 论文原文: paper
- 论文分析: highlight
- 论文笔记:谷歌的多语种神经网络翻译系统
- 3.1 A window into named entity recognition(NER)基于窗口模式的名称识别
- 语音识别的end-to-end模型
- 课件: lecture12
- 观看视频
- 学习笔记: 语音识别的end-to-end模型
- 卷积神经网络:CNN
- 论文导读:读唇术
- 3.2 Recurrent neural nets for named entity recognition(NER) 基于RNN的名称识别
- Tree RNN与短语句法分析
- 课件: lecture14
- 观看视频
- 学习笔记: Tree RNN与短语句法分析
- 指代消解
- 论文导读:谷歌的多语种神经网络翻译系统
- 论文原文: paper
- 论文分析: highlight
- 论文笔记:Character-Aware神经网络语言模型
- 3.3 Grooving with GRUs((NER)基于GRU的名称识别
- DMN与问答系统
- NLP存在的问题与未来的架构
- 课件: lecture17
- 观看视频
- 学习笔记:NLP存在的问题与未来的架构
- 论文导读:学习代码中的语义
- 课程大作业:
Kaggle:Quora垃圾问题分类
- 挑战深度学习与自然语言处理的极限
- 课件: lecture18
- 观看视频
- 学习笔记: 挑战深度学习与自然语言处理的极限
- 论文导读:neural-turing-machines
- 论文原文: paper
- 论文分析: highlight
- 论文笔记:neural-turing-machines
3 论文导读: 深度强化学习用于对话生成
- 论文原文: paper
- 论文分析: highlight
- 论文笔记:深度强化学习用于对话生成
- 论文导读:图像对话
- 比赛复盘
- 课程总结