当前播放: 05 | NLP领域简介:NLP基本任务及研究方向
00:00 / 00:00
高清
  • 高清
1.0x
  • 2.0x
  • 1.5x
  • 1.25x
  • 1.0x
  • 0.5x
网页全屏
全屏
00:00
付费课程,可试看
课程目录
第一章:AI及NLP基础 (15讲)
01 | 课程介绍
免费
02 | 内容综述
免费
03 | AI概览:宣传片外的人工智能
免费
04 | AI项目流程:从实验到落地
免费
05 | NLP领域简介:NLP基本任务及研究方向
免费
06 | NLP应用:智能问答系统
07 | NLP应用:文本校对系统
08 | NLP的学习方法:如何在AI爆炸时代快速上手学习?
09 | 深度学习框架简介:如何选择合适的深度学习框架?
10 | 深度学习与硬件:CPU
11 | 深度学习与硬件:GPU
12 | 深度学习与硬件:TPU
13 | AI项目部署:基本原则
14 | AI项目部署:框架选择
15 | AI项目部署:微服务简介
第二章:深度学习简介和NLP试水 (14讲)
16 | 统计学基础:随机性是如何改变数据拟合的本质的?
17 | 神经网络基础:神经网络还是复合函数
18 | 神经网络基础:训练神经网络
19 | 神经网络基础:神经网络的基础构成
20 | Embedding简介:为什么Embedding更适合编码文本特征?
21 | RNN简介:马尔可夫过程和隐马尔可夫过程
22 | RNN简介:RNN和LSTM
23 | CNN:卷积神经网络是什么?
24 | 环境部署:如何构建简单的深度学习环境?
25 | PyTorch简介:Tensor和相关运算
26 | PyTorch简介:如何构造Dataset和DataLoader?
27 | PyTorch简介:如何构造神经网络?
28 | 文本分类实践:如何进行简单的文本分类?
29 | 文本分类实践的评价:如何提升进一步的分类效果?
第三章:表格化数据挖掘 (40讲)
30 | 经典的数据挖掘方法:数据驱动型开发早期的努力
31 | 表格化数据挖掘基本流程:看看现在的数据挖掘都是怎么做的?
32 | Pandas简介:如何使用Pandas对数据进行处理?
33 | Matplotlib简介:如何进行简单的可视化分析?
34 | 半自动特征构建方法:Target Mean Encoding
35 | 半自动特征构建方法:Categorical Encoder
36 | 半自动特征构建方法:连续变量的离散化
37 | 半自动特征构建方法:Entity Embedding
38 | 半自动构建方法:Entity Embedding的实现
39 | 半自动特征构建方法:连续变量的转换
40 | 半自动特征构建方法:缺失变量和异常值的处理
41 | 自动特征构建方法:Symbolic learning和AutoCross简介
42 | 降维方法:PCA、NMF 和 tSNE
43 | 降维方法:Denoising Auto Encoders
44 | 降维方法:Variational Auto Encoder
45 | 变量选择方法
46 | 集成树模型:如何提升决策树的效果
47 | 集成树模型:GBDT和XgBoost的数学表达
48 | 集成树模型:LightGBM简介
49 | 集成树模型:CatBoost和NGBoost简介
50 | 神经网络建模:如何让神经网络实现你的数据挖掘需求
51 | 神经网络的构建:Residual Connection和Dense Connection
52 | 神经网络的构建:Network in Network
53 | 神经网络的构建:Gating Mechanism和Attention
54 | 神经网络的构建:Memory
55 | 神经网络的构建:Activation Function
56 | 神经网络的构建:Normalization
57 | 神经网络的训练:初始化
58 | 神经网络的训练:学习率和Warm-up
59 | 神经网络的训练:新的PyTorch训练框架
60 | Transformer:如何通过Transformer榨取重要变量?
61 | Transformer代码实现剖析
62 | xDeepFM:如何用神经网络处理高维的特征?
63 | xDeepFM的代码解析
64 | 时序建模:如何用神经网络解决时间序列的预测问题?
65 | 图嵌入:如何将图关系纳入模型?
66 | 图网络简介:如何在图结构的基础上建立神经网络?
67 | 模型融合基础:如何让你所学到的模型方法一起发挥作用?
68 | 高级模型融合技巧:Metades是什么?
69 | 挖掘自然语言中的人工特征:如何用传统的特征解决问题?
第四章:自然语言分类任务 (37讲)
70 | 重新审视Word Embedding:Negative Sampling和Contextual Embedding
71 | 深度迁移学习模型:从ELMo到BERT
72 | 深度迁移学习模型:RoBERTa、XLNet、ERNIE和T5
73 | 深度迁移学习模型:ALBERT和ELECTRA
74 | 深度迁移学习模型的微调:如何使用TensorFlow在TPU对模型进行微调
75 | 深度迁移学习模型的微调:TensorFlow BERT代码简析
76 | 深度迁移学习的微调:如何利用PyTorch实现深度迁移学习模型的微调及代码简析
77 | 优化器:Adam和AdamW
78 | 优化器:Lookahead,Radam和Lamb
79 | 多重loss的方式:如何使用多重loss来提高模型准确率?
80 | 数据扩充的基本方法:如何从少部分数据中扩充更多的数据并避免过拟合?
81 | UDA:一种系统的数据扩充框架
82 | Label Smoothing和Logit Squeezing
83 | 底层模型拼接:如何让不同的语言模型融合在一起从而达到更好的效果?
84 | 上层模型拼接:如何在语言模型基础上拼接更多的模型?
85 | 长文本分类:截取、关键词拼接和预测平均
86 | Virtual Adverserial Training:如何减少一般对抗训练难收敛的问题并提高结果的鲁棒性?
87 | 其他Embedding的训练:还有哪些Embedding方法?
88 | 训练预语言模型
89 | 多任务训练:如何利用多任务训练来提升效果?
90 | Domain Adaptation:如何利用其它有标注语料来提升效果?
91 | Few-shot Learning:是否有更好的利用不同任务的方法?
92 | 半监督学习:如何让没有标注的数据也派上用场?
93 | 依存分析和Semantic Parsing概述
94 | 依存分析和Universal Depdency Relattions
95 | 如何在Stanza中实现Dependency Parsing
96 | Shift Reduce算法
97 | 基于神经网络的依存分析算法
98 | 树神经网络:如何采用Tree LSTM和其它拓展方法?
99 | Semantic Parsing基础:Semantic Parsing的任务是什么?
100 | WikiSQL任务简介
101 | ASDL和AST
102 | Tranx简介
103 | Lambda Caculus概述
104 | Lambda-DCS概述
105 | Inductive Logic Programming:基本设定
106 | Inductive Logic Programming:一个可微的实现
第五章:增强学习 (12讲)
107 | 增强学习的基本设定:增强学习与传统的预测性建模有什么区别?
108 | 最短路问题和Dijkstra Algorithm
109 | Q-learning:如何进行Q-learning算法的推导?
110 | Rainbow:如何改进Q-learning算法?
121 | Policy Gradient:如何进行Policy Gradient的基本推导?
112 | A2C和A3C:如何提升基本的Policy Gradient算法
113 | Gumbel-trick:如何将离散的优化改变为连续的优化问题?
114 | MCTS简介:如何将“推理”引入到强化学习框架中
115 | Direct Policty Gradient:基本设定及Gumbel-trick的使用
116 | Direct Policty Gradient:轨迹生成方法
117 | AutoML及Neural Architecture Search简介
118 | AutoML网络架构举例
05 | NLP领域简介:NLP基本任务及研究方向

05 | NLP领域简介:NLP基本任务及研究方向

王然
众微科技AI Lab技术负责人、阿姆斯特丹大学数学和计量经济学双硕士
每周四 12:00 更新3016
新人首单 ¥29.9 原价 ¥129
20
本节摘要
登录 后留言

精选留言(21)

  • 王然 置顶
    我发现我讲课的时候的一个问题,在这里稍微更正一下:在我讲RL的时候,我讲了两种方法。一种是MCTS(Monte Carlo Tree Search),这个基本上是暴力去算可能性,可以理解为类似于计算的过程。另外一种我应该是没讲,那就是Q-learning和policy gradient。这类基本上是基于神经网络的,所以可以认为是一种类似于“感觉”的东西。Direct Policy Gradient等于把这个结合了。

    作者回复: 额 这是我自己。不知道为啥一留言就变成这样了(汗)

    2020-03-03
    1
    14
  • 氧气🌙 🐟 🌺
    本课程更新大概持续到几月?
    可否针对初学者推荐几本NLP书,作为本课程的辅助学习材料。

    作者回复: 应该会更新到八月。目前考虑到一些课程可能会过长,我会拆碎一部分来讲。所以最终估计至少得200讲。这样的话我尽量每周更新十节课。不出意外应该都没啥问题。

    2020-02-26
    5
    15
  • HCY
    基础性研究
    - 网络架构
    - 优化理论
    - 对抗训练
    - 数据增强
    - 半监督学习
    - 域迁移
    - Meta Learning
    - Auto ML
    - 多任务学习
    - 集成学习
    - 图网络
    - 知识图谱
    - 多模态学习
    - 机器推理

    NLP研究
    - 预训练语言模型
    - 文本分类
    - 序列标注
    - 关系提取
    - Dependency Parsing
    - Semantic Parsing
    - Seq2Seq
    - 文本生成
    - 文本推荐
    - 翻译
    - 指代消解

    NLP综合性研究
    - 智能对话机器人
    - 文本校对
    - 文本检索
    - 开源情报系统
    - Smart BI
    2020-02-25
    14
  • 王柯
    这个课不是入门课,是老师实践工作中的很多经验和心得,如果刚刚入门的,建议打个比赛或者做做项目来消化知识点
    2020-02-27
    5
  • 努力努力再努力
    老师牛逼 应该是极客时间最最负责的老师 当然不是说别的老师不负责 只是说这样负责任的老师特别少
    2020-04-17
    3
  • 岛乾坤
    这节课信息量太大了,老师讲的这些方向很多没听过,也没听懂。

    作者回复: 稍等一下我尽快把这里面一些论文整理出来

    2020-02-26
    3
  • Geek_0d0af3
    虽然才看到第五讲,但感觉干货满满呀,赞一个
    2020-04-13
    1
  • 行者
    05课里提到对一句话进行替换近义词数据增强,容易导致过拟合,为什么是这样?数据量增加不是有助于减轻过拟合吗

    作者回复: 因为同义词替换以后数据非常接近。所以这就导致很多时候很多时候看起来你增加了很多数据,但是实际上这些数据都很像,所以模型见到的数据几乎是一样的。

    2020-03-07
    2
    1
  • jimmyd
    老师您好,请教一下预训练模型和迁移学习是什么关系呢?
    2020-05-22
  • lulu
    非常棒,是我试听过的课程中干货比较丰富的课程之一,必学之
    2020-05-12
  • shuai不睡
    老师您好:我目前有java开发基础和大数据开发基础。但是数理统计能力比较差,目前自己有自学机器学习但是总是断断续续,今天看到nlp这个和机器学习有什么关系吗。对于我这种情况,您这边有什么好的建议吗。我去学习nlp和机器学习哪个比较有优势了
    2020-04-12
  • Geek_02623b
    我感觉UDA的作用是,以分类为例,看模型对当前样本估计的类别是否确信。
    之前实验的结果是,不能有效达到数据增强的目的。
    还有一个在训练时候遇到的问题,KL损失是随着训练步骤慢慢变大的,感觉这点有点诡异。
    2020-03-29
  • Slash
    老师讲的太好了!老师,我想问一下,1.序列标注问题在学术上精度很高了,被认为是已经解决的问题,还有哪些值得研究的点?2.序列标注那页ppt是哪个论文吗?用不同颜色显示出不同实体。
    2020-03-27
  • cedric
    这种视频课多一点 哈哈哈哈 我觉得比音频课要好,灰常棒
    2020-03-27
  • huang
    很好的课程,内容涉及到知识很多,希望可以跟着老师一起进步
    2020-03-25
  • Michael.S
    请问老师大概什么时候会分享相关论文?
    2020-03-23
  • Dr.z
    老师 想问你一下 有没有什么途径 可以获取到这些前沿的论文 周刊? 博客?

    作者回复: 最靠谱的就是去看论文和引用这些论文的研究。一手材料一般比二手材料要好。

    2020-03-04
  • 大明湖狗蛋
    这门课真的很棒!容量很大!知识很密集!结合老师的项目经验深入浅出!但是确实对新手不是很友好,起码需要了解一些基础知识才可以听课。如果是想用这门课入门的同学可能需要自己额外去基础性的东西或书籍。
    2020-03-04
  • (ONE#)
    课程太棒了,目前听到的最好课程,希望老师能多多结合项目,讲下项目的实践和部署
    2020-03-01
  • Jay Kay
    老师讲的很好
    2020-02-29
收起评论
看过的人还看
TensorFlow快速入门与实战

彭靖田  Google Developers Expert,《深入理解TensorFlow》作者

67讲 | 8243 人已学习

新人首单 ¥29.9 原价 ¥129
AI技术内参

洪亮劼  Etsy数据科学主管,前雅虎研究院资深科学家

166讲 | 9779 人已学习

新人首单 ¥49.9 原价 ¥199
数据结构与算法之美

王争  前Google工程师

80讲 | 86965 人已学习

新人首单 ¥29.9 原价 ¥129
TensorFlow 2项目进阶实战

彭靖田  Google Developer Expert、《TensorFlow 快速入门与实战》作者

48讲 | 1987 人已学习

新人首单 ¥29.9 原价 ¥129