Tingxun's Blog

念念不忘,必有回响


  • 首页

  • 关于

  • 标签

  • 分类

  • 归档

  • 站点地图
很好! 目前共计 95 篇日志。 继续努力。

2019

NMT Tutorial 4. 循环神经网络(RNN)

04-18

NMT Tutorial 3扩展e第4部分. 文档的简单分布式表示

03-17

NMT Tutorial 3扩展e第2部分. Subword

02-28

NMT Tutorial 3扩展e第1部分. Word2Vec及若干关于词向量的扩展知识

02-15

NMT Tutorial 3扩展d. 神经网络的泛化

01-10

2018

NMT Tutorial 3扩展c. 神经网络的初始化

11-17

NMT Tutorial 3扩展b. 自动微分

10-04

NMT Tutorial 3扩展a. 深度学习的矩阵微积分基础

09-09

在Mac上编译构建Moses

08-28

NMT Tutorial 3. 神经网络语言模型与词向量

07-20

NMT Tutorial 2扩展b. 优化方法

06-09

NMT Tutorial 2扩展a. 损失函数

04-26

NMT Tutorial 2. Log-linear语言模型

03-24

NMT Tutorial 1. 统计语言模型之N元语法

03-01

Hinton神经网络与机器学习 15. 自动编码器

02-24

Hinton神经网络与机器学习 14. 深度信念网络与判别微调

02-22

Hinton神经网络与机器学习 13. 深度信念网络

02-17

CS20 08. 风格迁移

02-15

Hinton神经网络与机器学习 12. 受限玻尔兹曼机

02-10

CS20 07. 使用TensorFlow实现卷积神经网络

02-09

CS20 06. 卷积神经网络简介

02-04

Hinton神经网络与机器学习 11. Hopfield网和玻尔兹曼机

02-04

Hinton神经网络与机器学习 10. 组合多个神经网络以提高泛化能力

01-31

CS20 05. 变量共享与实验管理

01-29

CS20 04. Eager Execution与word2vec

01-24

Hinton神经网络与机器学习 9. 提高神经网络的泛化能力

01-20

Hinton神经网络与机器学习 8. 循环神经网络 II

01-16

Hinton神经网络与机器学习 7. 循环神经网络 I

01-07

2017

Hinton神经网络与机器学习 6. 神经网络的优化

12-27

Hinton神经网络与机器学习 5. 卷积神经网络

12-23

Hinton神经网络与机器学习 4. 神经语言模型与词向量

12-22

《深度学习》ch6. 深度前馈网络 注(上)

12-09

《深度学习》ch6. 深度前馈网络 记(上)

12-05

CS20SI 03. 线性与Logistic回归

11-29

CS20SI 02. 操作

11-26

CS20SI 01. TensorFlow基本概念:张量、图和会话

11-25

Hinton神经网络与机器学习 3. 反向传播

11-21

Hinton神经网络与机器学习 2. 感知机

11-18

Hinton神经网络与机器学习 1. 绪论

11-12

NTUML 32. 结束曲

10-28

NTUML 31. 矩阵分解

10-25

NTUML 30. 径向基函数网络

10-22

NTUML 29. 深度学习

10-21

NTUML 28. 神经网络

10-19

NTUML 27. 梯度提升决策树(GBDT)

10-14

NTUML 26. 随机森林

10-07

NTUML 25. 决策树

10-07

NTUML 24. 自适应提升算法(Adaptive Boosting)

10-05

NTUML 23. 模型混合与装袋(bagging)

10-05

NTUML 22. 支持向量回归(SVR)

10-03

NTUML 21. 核Logistic回归

10-02

NTUML 20. 软间隔支持向量机

09-23

NTUML 19. 核支持向量机

09-23

NTUML 18. 对偶支持向量机

09-18

NTUML 17. 线性支持向量机

09-18

NTUML 16. 三条锦囊妙计

09-14

NTUML 15. 验证

09-12

NTUML 14. 正则化

09-10

NTUML 13. 过拟合的危害

09-09

NTUML 12. 非线性变换

09-04

NTUML 11. 用于分类问题的线性模型

09-01

NTUML 10. Logistic回归

08-30

NTUML 9. 线性回归

08-28

NTUML 8. 噪声和错误

08-21

NTUML 7. VC维

08-20

NTUML 6. 一般化理论

08-16

NTUML 5. 训练 vs. 测试

08-14

NTUML 4. 机器学习的可行性

08-06

NTUML 3. 机器学习的类型

08-05

NTUML 2. 学习判断是与非

08-03

NTUML 1. 学习问题

08-01

EdX Columbia ML 24. 模型选择

07-24

EdX Columbia ML 23. 关联分析

07-09

EdX Columbia ML 22. 连续状态空间模型

07-09

EdX Columbia ML 21. 隐马尔科夫模型 (HMM)

07-09

EdX Columbia ML 20. 马尔科夫模型和半监督学习

07-09

Edx Columbia ML 19. 主成分分析 (PCA)

07-05

EdX Columbia ML 18. 主题建模与非负矩阵分解

07-05

Edx Columbia ML 17. 矩阵分解与协同过滤

07-05

EdX Columbia ML 16. 高斯混合模型

07-03

EdX Columbia ML 15. 最大似然的EM算法

07-03

EdX Columbia ML 14. 聚类与K-均值算法

07-03

EdX Columbia ML 13. Boosting

06-29

EdX Columbia ML 12. 决策树与随机森林

06-29

EdX Columbia ML 11. 最大间隔分类器和支持向量机 (SVM)

06-29

EdX Columbia ML 10. 核方法与高斯过程

06-28

EdX Columbia ML 9. Logistic回归与拉普拉斯近似

06-28

EdX Columbia ML 8. 线性分类器与感知机

06-27

EdX Columbia ML 7. K-最近邻分类与贝叶斯分类器

06-27

EdX Columbia ML 6. 稀疏线性回归

06-26

EdX Columbia ML 5. 贝叶斯线性回归

06-24

EdX Columbia ML 4. 偏差方差、贝叶斯定律与MAP推断

06-24

EdX Columbia ML 3. 最小二乘II & 岭回归

06-24

EdX Columbia ML 2. 线性回归与最小二乘

06-24

EdX Columbia ML 1. 概论与最大似然

06-24
Tingxun Shi

Tingxun Shi

95 日志
11 分类
101 标签
知乎
友情链接
  • 咲神
© 2017 — 2019 Tingxun Shi
由 Hexo 强力驱动
|
主题 — NexT.Muse v5.1.3
访问人数 总访问量 次