#独家
小象-自然语言处理算法精讲

2022-07-14 人工智能 14,699
增值服务:
¥ 0积分

此资源仅限VIP下载升级VIP

开通VIP尊享优惠特权
立即下载 升级会员
详情介绍

小象-自然语言处理算法精讲课程介绍:

本课学习路线:NLP从入门进阶到前沿
1从基础的机器学习原理讲起,深入研究如何用机器学习与深度学习模型来处理具体的自然语言问题。
2掌握基本的语言模型基础后,使用贝叶斯原理来完成垃圾邮件分类、拼写纠正等基础问题。
3学习以主题模型(topic model)与隐马科夫模型(HMM)为主的概率图模型在词性标注、语义分析、机器翻译等任务。
4深入讨论最新的深度学习模型,了解CNN,LSTM等神经网络在文本建模方面的工作。
5利用词嵌入(word embedding)的方法来做简单的语义建模学习Seq2seq等端对端的模型在文本序列建模的最新成果如何使用注意力机制(attention mechanism)来提升性能。
6了解前沿的纯注意力模型Transformer,Memory Network跨媒体建模等最新的成果,成为前沿型技术人才。

课程目录:

——/XX-自然语言处理/
├──01-第1章:自然语言与数学之美
| ├──1.1 课程简介及推荐书目.flv 9.91M
| ├──1.10 凸集合和凸函数.flv 6.51M
| ├──1.2 NLP的研究领域及应用.flv 12.59M
| ├──1.3 自然语言的6个重要术语.flv 6.07M
| ├──1.4 语言学的发展史 1.flv 27.07M
| ├──1.5 语言学的发展史 2.flv 19.80M
| ├──1.6 语言学的发展史 3.flv 24.63M
| ├──1.7 函数.flv 8.97M
| ├──1.8 向量与向量的模.flv 11.48M
| └──1.9 矩阵和矩阵运算.flv 11.88M
├──02-第2章:基于机器学习方法的自然语言处理
| ├──2.1 主观概率和客观概率.flv 8.11M
| ├──2.10 辛普森悖论和贝叶斯概率解题实例.flv 21.80M
| ├──2.2 概率模型与条件概率.flv 12.63M
| ├──2.3 贝叶斯原理与推理.flv 18.30M
| ├──2.4 随机变量:二项式概率.flv 15.09M
| ├──2.5 随机变量:期望与方差.flv 10.85M
| ├──2.6 随机变量:联合概率.flv 3.33M
| ├──2.7 伯努利分布和二项式分布.flv 12.97M
| ├──2.8 多项式分布、伽玛分布和Beta分布.flv 9.12M
| └──2.9 泊松分布、高斯分布、对数正态分布和指数分布.flv 11.25M
├──03-第三章:1、2章答疑
| └──第一周答疑.flv 85.58M
├──04-第四章:自然语言
| ├──3.1 语言的进化:来自自然选择的社会协作.flv 20.40M
| ├──3.2 语言的进化:语言游戏与摩斯密码.flv 13.31M
| ├──3.3 语言与智能:信息熵.flv 15.22M
| ├──3.4 语言与智能:交叉熵的定义.flv 21.51M
| ├──3.5 语义的进化.flv 20.31M
| ├──3.6 语言模型:语言概率.flv 7.07M
| ├──3.7 词袋模型.flv 10.35M
| └──3.8 二元语言模型:CR情感分析.flv 27.54M
├──05-第5章:语言模型和中文分词
| ├──4.1 三元语言模型.flv 18.06M
| ├──4.10 N-Gram模型.flv 3.34M
| ├──4.11 Optimal Path 最优路径模型.flv 1.56M
| ├──4.12 中文分词工具:Jieba.flv 8.40M
| ├──4.2 语言模型评价:交叉熵.flv 8.43M
| ├──4.3 语言模型评价:Perplexity(困惑度).flv 9.47M
| ├──4.4 语言评价模型:Interpolation(插值法).flv 5.13M
| ├──4.5 概率模型:垃圾邮件分类.flv 17.99M
| ├──4.6 概率模型:拼写检查.flv 29.38M
| ├──4.7 语音模型和机器翻译模型.flv 5.43M
| ├──4.8 中文构词法.flv 13.87M
| └──4.9 最大化匹配.flv 3.25M
├──06-第6章:第二周答疑
| └──第二周答疑.flv 140.36M
├──07-第7章:语言技术-词表达和Word2Vec
| ├──5.1 词表达.flv 6.30M
| ├──5.10 Word2Vec-Part 3.flv 23.82M
| ├──5.2 语义相似度.flv 12.01M
| ├──5.3 TF-IDF权重处理.flv 5.17M
| ├──5.4 One-Hot表达.flv 5.28M
| ├──5.5 神经网络基础.flv 15.30M
| ├──5.6 神经网络:反向传播 1.flv 9.05M
| ├──5.7 神经网络:反向传播 2.flv 19.26M
| ├──5.8 Word2Vec-Part 1.flv 21.52M
| └──5.9 Word2Vec-Part 2.flv 25.45M
├──08-第8章:语言技术-词性
| ├──6.1 什么是词性标注(POS Tagging).flv 7.61M
| ├──6.10 混合模型详解5:隐马尔科夫模型.flv 21.36M
| ├──6.2 词性标注的方法.flv 7.21M
| ├──6.3 词性的标注类别和标注集.flv 9.38M
| ├──6.4 规则标注和N-Gram方法.flv 6.02M
| ├──6.5 从混合模型到HMM.flv 14.31M
| ├──6.6 混合模型详解1:EM模型.flv 32.65M
| ├──6.7 混合模型详解2:EM模型.flv 22.88M
| ├──6.8 混合模型详解3:高斯混合模型.flv 16.78M
| └──6.9 混合模型详解4:隐马尔可夫模型.flv 21.71M
├──09-第9章:第三周答疑
| └──第三周答疑.flv 28.43M
├──10-第10章:语言技术-概率图模型
| ├──7.1 概率图模型:贝叶斯网络(有向无环图).flv 8.31M
| ├──7.2 概率图模型:分层图模型.flv 4.04M
| ├──7.3 概率图模型:隐马尔科夫链.flv 3.68M
| ├──7.4 隐马尔可夫模型的推导 1.flv 25.84M
| ├──7.5 隐马尔科夫模型的推导 2.flv 25.88M
| ├──7.6 隐马尔科夫模型的推导 3.flv 33.31M
| ├──7.7 隐马尔科夫模型的推导 4.flv 29.12M
| ├──7.8 PLSA主题模型1.flv 11.97M
| └──7.9 PLSA主题模型 2.flv 11.25M
├──11-第11章:语言技术-文本与LDA主题模型
| ├──8.1 向量表达和潜在语义索引(LSI).flv 6.56M
| ├──8.10 实验报告:文本语义相似度.flv 5.83M
| ├──8.11 延展实验:主题模型引入字词关系的实现.flv 15.36M
| ├──8.12 实验总结.flv 5.26M
| ├──8.2 LDA和狄利克雷分布.flv 17.13M
| ├──8.3 LDA主题模型.flv 24.67M
| ├──8.4 主题模型的深化与对比.flv 18.30M
| ├──8.5 语义距离(Semantic Distance).flv 6.84M
| ├──8.6 中文LDA模型:Word-base 和 Character-Base.flv 6.91M
| ├──8.7 实验报告:困惑度(Perplexity).flv 3.48M
| ├──8.8 实验报告:文本分类准确度.flv 8.13M
| └──8.9 中英双语料库实验.flv 3.45M
├──12-第12章:第四周答疑
| └──第四周答疑.flv 51.72M
├──13-第13章:语言技术-句法
| ├──9.1 上下文无关句法(CFG)-Part 1.flv 31.42M
| ├──9.2 上下文无关句法(CFG)-Part 2.flv 30.86M
| ├──9.3 概率上下文无关句法(PCFG)- Part 1.flv 59.30M
| ├──9.4 概率上下文无关句法(PCFG)-Part 2.flv 31.32M
| └──9.5 概率上下文无关句法(PCGF)-Part 3.flv 43.95M
├──14-第14章:机器翻译
| ├──10.1 机器翻译(Machine Translation)-Part 1.flv 15.03M
| ├──10.2 机器翻译(Machine Translation)-Part 2.flv 18.25M
| ├──10.3 机器翻译(Machine Translation)-Part 3.flv 37.06M
| ├──10.4 机器翻译(Machine Translation)-Part 4.flv 26.51M
| ├──10.5 机器翻译(Machine Translation)-Part 5.flv 34.76M
| └──10.6 机器翻译(Machine Translation)-Part 6.flv 39.90M
├──15-第15章:第五周答疑
| └──第五周答疑.flv 30.24M
├──16-第16章:卷积神经网络CNN
| ├──11.1 神经元.flv 5.54M
| ├──11.2 全连接网络及特性.flv 15.85M
| ├──11.3 Auto-Encode 自编码器.flv 6.02M
| ├──11.4 反向传播(BP).flv 33.44M
| ├──11.5 卷积神经网络(CNN)的理解.flv 7.40M
| ├──11.6 CNN的基本原理:卷积核、权重和池化.flv 11.27M
| ├──11.7 CNN的计算过程.flv 13.47M
| └──11.8 CNN如何应用在自然语言处理中.flv 15.92M
├──17-第17章:循环神经网络RNN
| ├──12.1 循环神经网络的基本原理.flv 18.03M
| ├──12.2 Elman Network和Jordan Networ.flv 2.64M
| ├──12.3 LSTM的核心思想.flv 11.45M
| ├──12.4 LSTM的分步实现详解.flv 17.15M
| ├──12.5 Encoder-Decoder 框架.flv 15.26M
| ├──12.6 Seq2Seq 模型.flv 24.49M
| └──12.7 注意力机制(Attention Mechanism).flv 17.27M
├──18-第18章:第六周答疑
| └──第六周答疑.flv 23.31M
├──19-第19章:注意力机制
| ├──13.1 注意力机制产生的背景回顾.flv 20.67M
| ├──13.2 注意力模型的实现原理.flv 7.57M
| ├──13.3 注意力模型的应用领域.flv 8.75M
| ├──13.4 记忆网络(Memory Network)的组成.flv 18.61M
| ├──13.5 记忆网络的计算过程和实现方法.flv 22.62M
| ├──13.6 匹配函数(Match Function).flv 5.52M
| ├──13.7 注意力模型的延展1:Neural Programmer.flv 6.54M
| └──13.8 注意力模型的延展2:神经图灵机.flv 27.65M
├──20-第20章:广义模型(Universal Transformer)
| ├──14.1 UT的典型结构:Stack of Encoder and Decoder.flv 7.16M
| ├──14.2 Self-Attention的计算.flv 17.08M
| ├──14.3 Multi-Head Attention 和前向反馈神经网络FFNN.flv 8.81M
| ├──14.4 位置编码(Positional Encoding).flv 4.51M
| ├──14.5 层泛化(Lay Normalization).flv 7.00M
| ├──14.6 Softmax Layer:交叉熵和损失函数的计算.flv 10.85M
| ├──14.7 ACT模型(Adaptive Computation Time).flv 25.35M
| └──14.8 Universal Transformer 的完整实现流程.flv 9.90M
├──21-第21章:第七周答疑
| └──第七周答疑.flv 17.61M
├──22-第22章:自然语言研究的未来方向
| ├──15.1 自然语言研究可行方向:知识图谱与深度学习的结合.flv 6.61M
| ├──15.2 语义关系计算与知识库.flv 17.11M
| ├──15.3 知识库推理学习:Neural Tensor Network.flv 21.51M
| ├──15.4 跨媒体信息搜索:CMIR.flv 13.73M
| ├──15.5 文本图卷积网络(Text GCN).flv 39.91M
| └──15.6 NLP未来的探索方向.flv 15.40M
└──资料.zip
资源下载此资源仅限VIP下载,请先
常见问题

相关文章

发表评论
暂无评论
  • 0 +

    访问总数

  • 0 +

    会员总数

  • 0 +

    资源总数

  • 0 +

    今日发布

  • 0 +

    本周发布

  • 0 +

    运行天数

你的前景,远超我们想象