本指南专门针对任何具有基本编程知识或计算机科学背景的人,他们有兴趣成为深度学习和NLP的研究科学家
你可以自下而上或自上而下都很好用,知道哪种方法最适合你实际上是至关重要的。如果你可以在没有应用的情况下学习很多数学概念,那么使用自下而上。如果你想先动手操作,请先使用自上而下。
数学基础部分适用于所有人工智能分支,例如机器学习、强化学习、计算机视觉等。人工智能在很大程度上是基于数学理论的,因此坚实的基础是必不可少的。
数学的这个分支对于理解神经网络的机制至关重要,神经网络是当今最先进的NLP方法的规范。
资源 | 困难 | 关联 |
---|---|---|
MIT 吉尔伯特·斯特朗 2005 线性代数 |
★★ ☆☆☆
|
|
线性代数第4版弗里德伯格 |
★★★★ ☆
|
|
机器学习数学书籍:第 2 |
★★★ ☆☆
|
|
詹姆斯·汉布林精彩讲座系列 |
★★★ ☆☆
|
|
3蓝色1布朗线性代数 |
★ ☆☆☆☆
|
|
机器学习专业数学:线性代数 |
★ ☆☆☆☆
|
|
Gilber Strang 线性代数的矩阵方法已更新! |
★★★ ☆☆
|
大多数自然语言处理和机器学习算法都基于概率论。因此,这个分支对于掌握旧方法的工作原理非常重要。
资源 | 困难 | 关联 |
---|---|---|
Joe Blitzstein Harvard Probability and Statistics Course |
★★★★★
|
|
MIT 概率课程2011讲座视频 |
★★★ ☆☆
|
|
MIT 概率课程2018短视频更新! |
★★ ☆☆☆
|
|
机器学习数学书籍:第 6 |
★★★ ☆☆
|
|
概率图模型 CMU 高级 |
★★★★★
|
|
概率图形模型 斯坦福达芙妮高级 |
★★★★★
|
|
罗斯 |
★★★★ ☆
|
|
乔·布利茨斯坦 哈佛大学教授 概率 awesome 书 |
★★★ ☆☆
|
资源 | 困难 | 关联 |
---|---|---|
微积分的本质 by 3Blue1Brown |
★★ ☆☆☆
|
|
单变量微积分 MIT 2007 |
★★★★ ☆
|
|
斯特朗的微积分 |
★★★★ ☆
|
|
多变量微积分 MIT 2007 |
★★★★★
|
|
普林斯顿大学多变量微积分 2013 |
★★★★ ☆
|
|
斯图尔特 |
★★★★ ☆
|
|
机器学习数学书籍:第 5 |
★★★ ☆☆
|
-资源 | 困难 | 关联 |
---|---|---|
清迈大学优化课程2018 |
★★★★★
|
|
清迈大学高级优化课程 |
★★★★★
|
|
斯坦福著名优化课程 |
★★★★★
|
|
博伊德凸优化书 |
★★★★★
|
被认为是统计模型的一个花哨名称,其主要目标是从数据中学习多种用法。强烈建议在研究之前掌握这些统计技术,因为大多数研究都受到大多数算法的启发。
人工智能与计算机科学交叉领域的重大突破之一。它导致了无数的技术进步,并被认为是人工智能的标准方法。
它是人工智能的一个子领域,专注于通过观察/奖励进行学习。
资源 | 难度级别 |
---|---|
强化学习 |
|
大卫·西尔弗深心入门讲座 |
|
斯坦福 2018 CS234 强化学习 |
|
斯坦福大学 2019 cs330 元学习高级课程 |
|
塞尔吉·莱文 2018 加州大学伯克利分校讲座视频 |
|
滑铁卢 cs885 加固车 |
|
塞尔吉·莱文 2020 深度强化学习 |
|
强化学习专业化课程黄金课程 |
它是人工智能的一个子领域,专注于人类语言的解释。
资源 | 难度级别 |
---|---|
朱拉夫斯基语音和语言处理 |
|
克里斯托弗·曼宁 统计NLP |
|
克里斯托弗·曼宁 信息检索 |
|
cs224n 自然语言处理与深度学习 GOLDEN 2019 |
|
牛津自然语言处理与深度学习 2017 |
|
密歇根州NLP |
|
cs224u 自然语言理解 2019 |
|
CMU 2021 NLP 神经网络 2021 |
|
Jurafsky和Manning自然语言处理 |
在本节中,我将列出最具影响力的论文,这些论文可以帮助想要深入了解NLP研究领域的人们赶上。
纸 | 评论 |
---|