小象-自然语言处理算法精讲课程介绍:

NLP中的算法复杂,应用场景多变,涉及数学,哲学,语言学等多类学科,理解起来很抽象,通过学习,你将掌握包括文本分析,语义分析和机器翻译等技术在内的自然语言处理核心技能,在课程中学到的理论推导和算法应用能直接丰富你的硬实力,打磨自然语言处理的专业技能

课程大纲:

小象自然语言处理算法精讲截图

小象自然语言处理算法精讲截图

课程目录:

——/XX-自然语言处理/
├──01-第1章:自然语言与数学之美
| ├──1.1 课程简介及推荐书目.flv 9.91M
| ├──1.10 凸集合和凸函数.flv 6.51M
| ├──1.2 NLP的研究领域及应用.flv 12.59M
| ├──1.3 自然语言的6个重要术语.flv 6.07M
| ├──1.4 语言学的发展史 1.flv 27.07M
| ├──1.5 语言学的发展史 2.flv 19.80M
| ├──1.6 语言学的发展史 3.flv 24.63M
| ├──1.7 函数.flv 8.97M
| ├──1.8 向量与向量的模.flv 11.48M
| └──1.9 矩阵和矩阵运算.flv 11.88M
├──02-第2章:基于机器学习方法的自然语言处理
| ├──2.1 主观概率和客观概率.flv 8.11M
| ├──2.10 辛普森悖论和贝叶斯概率解题实例.flv 21.80M
| ├──2.2 概率模型与条件概率.flv 12.63M
| ├──2.3 贝叶斯原理与推理.flv 18.30M
| ├──2.4 随机变量:二项式概率.flv 15.09M
| ├──2.5 随机变量:期望与方差.flv 10.85M
| ├──2.6 随机变量:联合概率.flv 3.33M
| ├──2.7 伯努利分布和二项式分布.flv 12.97M
| ├──2.8 多项式分布、伽玛分布和Beta分布.flv 9.12M
| └──2.9 泊松分布、高斯分布、对数正态分布和指数分布.flv 11.25M
├──03-第三章:1、2章答疑
| └──第一周答疑.flv 85.58M
├──04-第四章:自然语言
| ├──3.1 语言的进化:来自自然选择的社会协作.flv 20.40M
| ├──3.2 语言的进化:语言游戏与摩斯密码.flv 13.31M
| ├──3.3 语言与智能:信息熵.flv 15.22M
| ├──3.4 语言与智能:交叉熵的定义.flv 21.51M
| ├──3.5 语义的进化.flv 20.31M
| ├──3.6 语言模型:语言概率.flv 7.07M
| ├──3.7 词袋模型.flv 10.35M
| └──3.8 二元语言模型:CR情感分析.flv 27.54M
├──05-第5章:语言模型和中文分词
| ├──4.1 三元语言模型.flv 18.06M
| ├──4.10 N-Gram模型.flv 3.34M
| ├──4.11 Optimal Path 最优路径模型.flv 1.56M
| ├──4.12 中文分词工具:Jieba.flv 8.40M
| ├──4.2 语言模型评价:交叉熵.flv 8.43M
| ├──4.3 语言模型评价:Perplexity(困惑度).flv 9.47M
| ├──4.4 语言评价模型:Interpolation(插值法).flv 5.13M
| ├──4.5 概率模型:垃圾邮件分类.flv 17.99M
| ├──4.6 概率模型:拼写检查.flv 29.38M
| ├──4.7 语音模型和机器翻译模型.flv 5.43M
| ├──4.8 中文构词法.flv 13.87M
| └──4.9 最大化匹配.flv 3.25M
├──06-第6章:第二周答疑
| └──第二周答疑.flv 140.36M
├──07-第7章:语言技术-词表达和Word2Vec
| ├──5.1 词表达.flv 6.30M
| ├──5.10 Word2Vec-Part 3.flv 23.82M
| ├──5.2 语义相似度.flv 12.01M
| ├──5.3 TF-IDF权重处理.flv 5.17M
| ├──5.4 One-Hot表达.flv 5.28M
| ├──5.5 神经网络基础.flv 15.30M
| ├──5.6 神经网络:反向传播 1.flv 9.05M
| ├──5.7 神经网络:反向传播 2.flv 19.26M
| ├──5.8 Word2Vec-Part 1.flv 21.52M
| └──5.9 Word2Vec-Part 2.flv 25.45M
├──08-第8章:语言技术-词性
| ├──6.1 什么是词性标注(POS Tagging).flv 7.61M
| ├──6.10 混合模型详解5:隐马尔科夫模型.flv 21.36M
| ├──6.2 词性标注的方法.flv 7.21M
| ├──6.3 词性的标注类别和标注集.flv 9.38M
| ├──6.4 规则标注和N-Gram方法.flv 6.02M
| ├──6.5 从混合模型到HMM.flv 14.31M
| ├──6.6 混合模型详解1:EM模型.flv 32.65M
| ├──6.7 混合模型详解2:EM模型.flv 22.88M
| ├──6.8 混合模型详解3:高斯混合模型.flv 16.78M
| └──6.9 混合模型详解4:隐马尔可夫模型.flv 21.71M
├──09-第9章:第三周答疑
| └──第三周答疑.flv 28.43M
├──10-第10章:语言技术-概率图模型
| ├──7.1 概率图模型:贝叶斯网络(有向无环图).flv 8.31M
| ├──7.2 概率图模型:分层图模型.flv 4.04M
| ├──7.3 概率图模型:隐马尔科夫链.flv 3.68M
| ├──7.4 隐马尔可夫模型的推导 1.flv 25.84M
| ├──7.5 隐马尔科夫模型的推导 2.flv 25.88M
| ├──7.6 隐马尔科夫模型的推导 3.flv 33.31M
| ├──7.7 隐马尔科夫模型的推导 4.flv 29.12M
| ├──7.8 PLSA主题模型1.flv 11.97M
| └──7.9 PLSA主题模型 2.flv 11.25M
├──11-第11章:语言技术-文本与LDA主题模型
| ├──8.1 向量表达和潜在语义索引(LSI).flv 6.56M
| ├──8.10 实验报告:文本语义相似度.flv 5.83M
| ├──8.11 延展实验:主题模型引入字词关系的实现.flv 15.36M
| ├──8.12 实验总结.flv 5.26M
| ├──8.2 LDA和狄利克雷分布.flv 17.13M
| ├──8.3 LDA主题模型.flv 24.67M
| ├──8.4 主题模型的深化与对比.flv 18.30M
| ├──8.5 语义距离(Semantic Distance).flv 6.84M
| ├──8.6 中文LDA模型:Word-base 和 Character-Base.flv 6.91M
| ├──8.7 实验报告:困惑度(Perplexity).flv 3.48M
| ├──8.8 实验报告:文本分类准确度.flv 8.13M
| └──8.9 中英双语料库实验.flv 3.45M
├──12-第12章:第四周答疑
| └──第四周答疑.flv 51.72M
├──13-第13章:语言技术-句法
| ├──9.1 上下文无关句法(CFG)-Part 1.flv 31.42M
| ├──9.2 上下文无关句法(CFG)-Part 2.flv 30.86M
| ├──9.3 概率上下文无关句法(PCFG)- Part 1.flv 59.30M
| ├──9.4 概率上下文无关句法(PCFG)-Part 2.flv 31.32M
| └──9.5 概率上下文无关句法(PCGF)-Part 3.flv 43.95M
├──14-第14章:机器翻译
| ├──10.1 机器翻译(Machine Translation)-Part 1.flv 15.03M
| ├──10.2 机器翻译(Machine Translation)-Part 2.flv 18.25M
| ├──10.3 机器翻译(Machine Translation)-Part 3.flv 37.06M
| ├──10.4 机器翻译(Machine Translation)-Part 4.flv 26.51M
| ├──10.5 机器翻译(Machine Translation)-Part 5.flv 34.76M
| └──10.6 机器翻译(Machine Translation)-Part 6.flv 39.90M
├──15-第15章:第五周答疑
| └──第五周答疑.flv 30.24M
├──16-第16章:卷积神经网络CNN
| ├──11.1 神经元.flv 5.54M
| ├──11.2 全连接网络及特性.flv 15.85M
| ├──11.3 Auto-Encode 自编码器.flv 6.02M
| ├──11.4 反向传播(BP).flv 33.44M
| ├──11.5 卷积神经网络(CNN)的理解.flv 7.40M
| ├──11.6 CNN的基本原理:卷积核、权重和池化.flv 11.27M
| ├──11.7 CNN的计算过程.flv 13.47M
| └──11.8 CNN如何应用在自然语言处理中.flv 15.92M
├──17-第17章:循环神经网络RNN
| ├──12.1 循环神经网络的基本原理.flv 18.03M
| ├──12.2 Elman Network和Jordan Networ.flv 2.64M
| ├──12.3 LSTM的核心思想.flv 11.45M
| ├──12.4 LSTM的分步实现详解.flv 17.15M
| ├──12.5 Encoder-Decoder 框架.flv 15.26M
| ├──12.6 Seq2Seq 模型.flv 24.49M
| └──12.7 注意力机制(Attention Mechanism).flv 17.27M
├──18-第18章:第六周答疑
| └──第六周答疑.flv 23.31M
├──19-第19章:注意力机制
| ├──13.1 注意力机制产生的背景回顾.flv 20.67M
| ├──13.2 注意力模型的实现原理.flv 7.57M
| ├──13.3 注意力模型的应用领域.flv 8.75M
| ├──13.4 记忆网络(Memory Network)的组成.flv 18.61M
| ├──13.5 记忆网络的计算过程和实现方法.flv 22.62M
| ├──13.6 匹配函数(Match Function).flv 5.52M
| ├──13.7 注意力模型的延展1:Neural Programmer.flv 6.54M
| └──13.8 注意力模型的延展2:神经图灵机.flv 27.65M
├──20-第20章:广义模型(Universal Transformer)
| ├──14.1 UT的典型结构:Stack of Encoder and Decoder.flv 7.16M
| ├──14.2 Self-Attention的计算.flv 17.08M
| ├──14.3 Multi-Head Attention 和前向反馈神经网络FFNN.flv 8.81M
| ├──14.4 位置编码(Positional Encoding).flv 4.51M
| ├──14.5 层泛化(Lay Normalization).flv 7.00M
| ├──14.6 Softmax Layer:交叉熵和损失函数的计算.flv 10.85M
| ├──14.7 ACT模型(Adaptive Computation Time).flv 25.35M
| └──14.8 Universal Transformer 的完整实现流程.flv 9.90M
├──21-第21章:第七周答疑
| └──第七周答疑.flv 17.61M
├──22-第22章:自然语言研究的未来方向
| ├──15.1 自然语言研究可行方向:知识图谱与深度学习的结合.flv 6.61M
| ├──15.2 语义关系计算与知识库.flv 17.11M
| ├──15.3 知识库推理学习:Neural Tensor Network.flv 21.51M
| ├──15.4 跨媒体信息搜索:CMIR.flv 13.73M
| ├──15.5 文本图卷积网络(Text GCN).flv 39.91M
| └──15.6 NLP未来的探索方向.flv 15.40M
└──资料.zip
此隐藏内容仅限VIP查看升级VIP

侵权联系与免责声明 1、本站资源所有言论和图片纯属用户个人意见,与本站立场无关 2、本站所有资源收集于互联网,由用户分享,该帖子作者与独角兽资源站不享有任何版权,如有侵权请联系本站删除 3、本站部分内容转载自其它网站,但并不代表本站赞同其观点和对其真实性负责 4、如本帖侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意 如有侵权联系邮箱:1415374178@qq.com

0

评论0

显示验证码
没有账号?注册  忘记密码?