“集智课程”的版本间的差异

来自集智百科
跳转到: 导航搜索
PyTorch入门 ——自然语言理解
第282行: 第282行:
 
:*6.4 结业项目:基于自然语言理解的交易信号预测
 
:*6.4 结业项目:基于自然语言理解的交易信号预测
 
===PyTorch入门 ——自然语言理解===
 
===PyTorch入门 ——自然语言理解===
 +
 +
*1 词汇的星空
 +
:*1.1 NLP总体介绍
 +
:*1.2 词向量介绍
 +
:*1.3 Bengio的神经概率语言模型(NPLM)
 +
::*1.3.1 NPLM的Pytorch实现
 +
::*1.3.2 《三体》中的词向量
 +
::*1.3.3 中文分词与预处理
 +
::*1.3.4 运用Sklearn包进行PCA降维
 +
:*1.4 Word2Vec技术介绍
 +
::*1.4.1 Skip Gram模型
 +
::*1.4.2 负采样技术
 +
::*1.4.3 gensim的Word2Vec包
 +
::*1.4.4 加载大型词向量
 +
::*1.4.5 降维可视化
 +
::*1.4.6 运用词向量进行类比推理
 +
::*1.4.7 运用词向量进行查询与搜索
 +
2 机器也懂感情?
 +
:*2.1 文本分类任务介绍
 +
:*2.2 词袋模型分类器
 +
::*2.2.1 京东购物评论页面的抓取
 +
::*2.2.2 大型语料的生成与预处理
 +
::*2.2.3 训练、校验与测试数据集的划分
 +
::*2.2.4 构造词袋向量
 +
::*2.2.5 利用PyTorch构造神经网络
 +
::*2.2.6 解剖词袋神经网络
 +
::*2.2.7 词袋神经网络为何会犯错?
 +
:*2.3 RNN
 +
::*2.3.1 什么是RNN?
 +
::*2.3.2 RNN工作基本原理
 +
::*2.3.3 手工实现一个RNN
 +
::*2.3.4 RNN的缺点
 +
:*2.4 LSTM
 +
::*2.4.1 什么是LSTM?
 +
::*2.4.2 LSTM的工作原理
 +
::*2.4.3 如何运用PyTorch实现一个LSTM?
 +
3 神经网络莫扎特——LSTM
 +
:*3.1 走进序列的世界
 +
:*3.2 教会LSTM上下文无关语法
 +
::*3.2.1 有限状态自动机
 +
::*3.2.2 上下文无关语法
 +
::*3.2.3 梯度爆炸与梯度消失
 +
::*3.2.4 LSTM的本质是什么?
 +
::*3.2.5 LSTM如何学会上下文无关语法?
 +
::*3.2.6 LSTM的变种GRU
 +
:*3.3 LSTM作曲家
 +
::*3.3.1 MIDI音乐的本质是什么?
 +
::*3.3.2 mido包:用Python操纵MIDI音乐
 +
::*3.3.3 音乐生成器的设计与训练
 +
::*3.3.4 PyTorch中如何使用GPU?
 +
::*3.3.5 Floyd——一个好用、便宜的GPU计算平台
 +
4 彩云小译——机器翻译
 +
:*4.1 彩云小译简介
 +
:*4.2 机器翻译概述
 +
:*4.3 神经机器翻译原理
 +
::*4.3.1 双向LSTM
 +
::*4.3.2 编码器-解码器解构
 +
::*4.3.3 注意力机制概述
 +
::*4.3.4 Beam search原理
 +
:*4.4 神经机器翻译的PyTorch实现
 +
::*4.4.1 双语语料的准备
 +
::*4.4.2 双向LSTM的实现
 +
::*4.4.3 注意力机制的实现
 +
::*4.4.4 翻译效果的评估
 +
:*4.5 机器翻译++
 +
::*4.5.1 机器翻译的最新进展
 +
::*4.5.2 看图说话
 +
5 游戏高手
 +
:*5.1 为什么要让AI玩游戏?
 +
:*5.2 强化学习简介
 +
:*5.3 深度强化学习原理
 +
::*5.3.1 深度强化学习的多种途径
 +
::*5.3.2 DQN网络工作原理
 +
::*5.3.3 DQN表现结果
 +
:*5.4 DQN玩Flappy Bird的PyTorch实现
 +
::*5.4.1 PyGame:用Python模拟游戏的包
 +
::*5.4.2 Flappy Bird的Python实现
 +
::*5.4.3 DQN的PyTorch实现
 +
::*5.4.4 效果评估
 +
:*5.5 我们离通用AI还有多远?
 +
::*5.5.1 Marcus Hutte的AIXI简介
 +
::*5.5.2 哥德尔机是否是终极?
 +
 
===如何打造你自己的聊天机器人===
 
===如何打造你自己的聊天机器人===
 
===自然语言处理与深度学习===
 
===自然语言处理与深度学习===

2019年8月16日 (五) 17:51的版本

Buissness集智学园封面.jpg


目录

基础通识专题

PyThon入门系列教程

  • 安装Python
  • 基本功能:print、基础数学运算、variable
  • while / for循环
  • if else 判断
  • 定义函数、函数参数、默认参数
  • 全局变量
  • 外部模块安装
  • 读写文件
  • class 类、类的 init 功能
  • 使用 input 处理输入
  • 元组和列表
  • list 列表
  • dictionary 字典
  • 多维列表
  • 引入模块
  • 自定义模块
  • 使用continue和break
  • try 错误处理
  • zip lambda map
  • 浅谈复制、深复制
  • 使用 pickle 保存数据
  • 使用 set 找不同

Numpy|Pandas数据处理神器

  • 为什么要使用 Numpy 和 Pandas
  • 安装方法
  • Numpy 的基本属性
  • 创建 Numpy 的 array
  • Numpy 基础运算 #1
  • Numpy 基础运算 #2
  • Numpy 使用索引
  • Numpy 合并 array
  • Numpy 分割 array
  • Numpy 复制和深复制
  • Pandas 基本介绍
  • Pandas 选择数据
  • Pandas 设置值
  • Pandas 处理丢失数据
  • Pandas 导入导出数据
  • Pandas 使用 concat 合并数据
  • Pandas 使用 merge 合并数据
  • Pandas 使用 plot 建立图表

Tensorflow 入门系列教程

  • 什么是神经网络
  • 为什么选 Tensorflow
  • 安装Tensorflow
  • 神经网络在干嘛
  • Tensorflow的处理结构
  • 会话控制
  • Variable 变量
  • Placehoder 传入值
  • 激励函数
  • 机器翻译原理简介
  • 添加层: add_layer()
  • 建造神经网络
  • 结果可视化
  • 优化器:optimizer
  • 网络可视化:Tensorboard
  • Classification 分类学习
  • Dropout 解决 过拟合
  • 卷积神经网络:CNN
  • 神经网络的保存和读取
  • 循环神经网络:RNN
  • 回归问题的可视化
  • 无监督学习:Autoencoder
  • scope 命名方法
  • 批标准化:Batch Normalization

机器学习神经网络入门

  • 什么是机器学习
  • 什么是神经网络模型
  • 什么是卷积神经网络
  • 什么是循环神经网络 RNN
  • 什么是 LSTM RNN
  • 什么是自编码器
  • 什么是生成式对抗网络(GAN)


计算机视觉专题

计算机视觉与深度学习

  • 1 计算机视觉中的深度学习概述
  • 1.1 人工神经网络的发展简史与现状
  • 1.2 神经网络基本组成:全连接、卷积、池化、激活函数
  • 1.3 深度学习常用技术:数据预处理、网络初始化、过拟合抑制、优化器与学习率
  • 1.4 计算机视觉的热门任务:图像分类、物体检测、图像分割、风格转换、图像生成、视频类等
  • 1.5 深度学习常用平台
  • 2 机器学习中的归一化
  • 2.1 神经网络常见特征归一化技术
  • 2.2 特征归一化技术的应用场景
  • 3 激活函数、过拟合抑制、其他网络训练的黑科技
  • 3.1 激活函数发展历史
  • 3.2 激活函数的定义、性质
  • 3.3 激活函数的实例:优缺点和应用场景分析。
  • 3.4 dropout等其他过拟合抑制技术
  • 3.5 数据预处理、网络初始化、损失函数、优化器与学习率
  • 4 常用深度神经网络模型简介
  • 4.1 热门判别模型结构:包括 NIN, Inception, ResNet, DenseNet等。
  • 5 进阶模型:GAN与AutoEncoder
  • 5.1 热门生成模型结构:包括 Autoencoder等
  • 5.2生成模型与判别模型的结合:GAN
  • 6 典型应用——物体检测
  • 6.1 物体检测一般流程
  • 6.2 物体检测常见技术
  • 6.3 主流物体检测框架
  • 7 深度实例分析——可控人脸变换和高准确率人脸识别
  • 7.1 特征提取与分离的基本概念
  • 7.2 本方法通过学习提取特征的具体流程
  • 7.3 方法效果展示与分析

PyTorch入门 ——计算机视觉

  • 1 当“深度学习”遇上Pytorch
  • 1.1 深度学习、机器学习
  • 1.2 反向传播算法在神经网络中的作用
  • 1.3 深度学习算法中的架构与训练方法
  • 1.4 两种最重要的深度网络:CNN、RNN
  • 1.5 深度学习的本质
  • 2 “共享单车”需要我
  • 2.1 神经网络预测器1
  • 2.1.1 神经元细胞
  • 2.1.2 神经网络
  • 2.1.3 神经网络的工作原理
  • 2.2 神经网络预测器2
  • 2.2.1 数据预处理
  • 2.2.2 利用Pytorch构建神经网络
  • 2.2.3 预测结果及其分析
  • 2.3 对神经网络的解剖
  • 2.4 神经网络分类器
  • 3 我卷卷卷——卷积神经网络
  • 3.1 将卷积过程理解为模板匹配
  • 3.2 卷积核与特征图的对应
  • 3.3 池化操作
  • 3.4 Dropout:防止过拟合的一种方法
  • 3.5 数据集:训练、校验、测试
  • 3.6 卷积神经网络的代码实现
  • 4 神经网络如何“移情别恋”——迁移学习
  • 4.1 迁移学习
  • 4.2 迁移学习的两种方式
  • 4.3 预训练的方式效果更好
  • 4.4 风格迁移
  • 4.4.1 让内容和风格相差最小
  • 4.4.2 Gram矩阵的计算
  • 5 “镜像网络”与“猫鼠游戏”
  • 5.1 图像生成
  • 5.2 反卷积操作的内容与含义
  • 5.3 GAN——一套新的机器学习框架
  • 5.4 优化技巧:Adam、batch normalization 、权重初始化、激活函数


GAN专题论文研读

  • 1 基础原理之GAN的诞生
  • 1.1 引言
  • 1.1.1 GAN产生的大环境
  • 1.1.2 其它相关方法
  • 1.2 核心思想
  • 1.3 优化目标的有效性
  • 1.4 优化方法的有效性
  • 1.5 实验分析&后续工作
  • 1.6 总结:文章特色&GAN特色
  • 2 GAN的数据生成篇
  • 2.1 GAN的数据生成——从无到有:条件式
  • 2.1.1 InfoGAN
  • 2.1.2 cGAN
  • 2.1.3 DCGAN
  • 2.2 GAN的数据生成——从无到有:渐进式
  • 2.2.1 LAPGAN
  • 2.2.2 StackGAN
  • 2.2.3 pix2pix
  • 2.2.4 pix2pixHD
  • 2.3 GAN的数据生成——从A到B的迁移学习
  • 2.3.1 cycleGAN
  • 2.3.2 DualGAN
  • 2.3.3 DiscoGAN
  • 2.3.4 StarGAN
  • 3 GAN的模型训练篇
  • 3.1 GAN”不好训“的理论分析
  • 3.1.1 问题一:D无法提供梯度帮助
  • 3.1.2 问题二:训练效果不稳定
  • 3.2 WGAN:GAN 的理论改进
  • 3.2.1 KL距离、JS距离、TV距离的不合理性
  • 3.2.2 Wasserstein距离的合理性、连续性及证明
  • 3.2.3 Wassertein距离的近似计算与近似条件
  • 3.2.4 WGAN的优化目标与优化过程
  • 3.2.5 WGAN与GAN相比的优点
  • 3.3 DCGAN:基于启发式的 GAN 训练技巧
  • 3.3.1 DCGAN
  • 3.3.2 Improved Techniques for Training GANs
  • 3.4 D2GAN:从 GAN 结构出发改善训练效果
  • 3.4.1 KL距离与 reverse-KL距离
  • 3.4.2 D2GAN 的工作原理及公式分析
  • 3.4.3 D2GAN 效果的实验验证
  • 4 GAN的典型应用
  • 4.1 perceptual loss中图像生成任务应用的核心优势:
  • 4.1.1 DNN前向推断的高效性
  • 4.1.2 优化目标:feature map的鲁棒性
  • 4.2 在迁移学习与超分辨率任务中perceptual loss的应用
  • 4.3 generating videos with scene dynamics
  • 4.3.1 用对抗的方法生成视频
  • 4.3.2 从大量无标签视频数据中
  • 4.3.3 双流结构学习其中的一些dynamics
  • 4.3.4 方法特色:利用时空卷积结构;前景、背景分开建模
  • 4.4 cross-domain的image caption
  • 4.4.1 强化学习
  • 4.4.2 对抗训练
  • 4.4.3 domain critic and multi-modal critic
  • 5 GAN的特征学习
  • 5.1 两类传统无监督学习方法介绍
  • 5.1.1 产生式无监督学习方法
  • 5.1.2 判别式无监督学习方法
  • 5.2 无标签样本集合的问题分析与解决方法
  • 5.2.1 缺乏真实标签时如何定义划分标准的好坏
  • 5.2.2 GAN 的判别器 D 只能辨真假,不能分类别
  • 5.3 CatGAN 中生成器 G 和判别器 D 的表达式
  • 5.3.1 无监督形式
  • 5.3.2 半监督形式:增加一项交叉损失项
  • 6 GAN的姿态迁移
  • 6.1 目标域无标签的无监督领域自适应问题
  • 6.2 双判别器生成对抗网络的设计架构
6.2.1 生成对抗学习
  • 6.2.2 带有分类约束的判别器
  • 7 GANImation
  • 7.1 论文的主要贡献:
  • 7.1.1 可以控制到每个AU(action unit)的幅度,而不只是离散的集中表情
  • 7.1.2 引入注意力机制,增强鲁棒性
  • 7.2 模型的整体框架
  • 7.2.1 生成器结构
  • 7.2.2 判别器结构
  • 7.2.3 损失函数
  • 7.2.4 具体实现
  • 8 GAN论文串讲
  • 8.1 GAN前期课程的回顾
  • 8.2 2018年GAN的新进展
  • 8.3 时令论文解读:非监督式学习的视频解耦表示


自然语言处理专题

中文自然语言理解(NLU)在金融领域的应用

  • 1 从中文NLP码农到中文NLU世界
  • 1.1 自然语言处理(NLP)到自然语言理解(NLU)的任务差异
  • 1.2 语言难在哪?中文又难在哪?
  • 1.3 深度学习如何产生语意表征
  • 1.4 RNN, LSTM, GRU用序列的角度理解语言
  • 1.5 作业项目:词神林夕养成计划
  • 2 从语言序列中判断语义
  • 2.1 序列到序列(Seq2Seq)模型观念
  • 2.2 不只教建模,当然还要教标注
  • 2.3 注意力(Attention)重新发明了序列到序列
  • 2.4 作业项目:学习做好语言标注的基本功
  • 3 对语言最强大的降维攻击武器——词向量
  • 3.1 Bengio的神经概率语言模型(NPLM)
  • 3.2 Word2Vec技术介绍
  • 3.3 制作词向量的数据清洗
  • 3.4 还有哪些有趣的语言向量?
  • 3.5 捡拾低垂的语意果子--类比推理、实体枚举
  • 3.6 知识图谱抽取、同义字推断
  • 3.7 降维可视化
  • 3.8 作业项目:掐头去尾找重点:投研报告打开的正确方式
  • 4 用机器视觉解放长文本
  • 4.1 谁说中文必须要分词,让机器学会「看中文」
  • 4.2 中文的造字法则,如何能让形音义三位一体
  • 4.3 用字向量从分词任务中解脱
  • 4.4 文字卷积(Text CNN)进行语意识别
  • 4.5 从卷积的角度看语言
  • 4.6 中文的数据增强技巧
  • 4.7 作业项目:使用文字卷积评估长文本语意
  • 5 别忘了这些传统NLP任务
  • 5.1 温故而知新,被遗忘的依存句法分析
  • 5.2 句法结构来判读歧异
  • 5.3 从句法结构到复杂实体关系理解
  • 5.4 作业项目:人脑搞晕的股权结构关系,没关系有深度学习在
  • 6 提枪上战场:基于自然语言理解的交易信号预测
  • 6.1 情感序列识别或者是篇章情感识别
  • 6.2 深度特征到市场预测
  • 6.3 解决过拟合
  • 6.4 结业项目:基于自然语言理解的交易信号预测

PyTorch入门 ——自然语言理解

  • 1 词汇的星空
  • 1.1 NLP总体介绍
  • 1.2 词向量介绍
  • 1.3 Bengio的神经概率语言模型(NPLM)
  • 1.3.1 NPLM的Pytorch实现
  • 1.3.2 《三体》中的词向量
  • 1.3.3 中文分词与预处理
  • 1.3.4 运用Sklearn包进行PCA降维
  • 1.4 Word2Vec技术介绍
  • 1.4.1 Skip Gram模型
  • 1.4.2 负采样技术
  • 1.4.3 gensim的Word2Vec包
  • 1.4.4 加载大型词向量
  • 1.4.5 降维可视化
  • 1.4.6 运用词向量进行类比推理
  • 1.4.7 运用词向量进行查询与搜索

2 机器也懂感情?

  • 2.1 文本分类任务介绍
  • 2.2 词袋模型分类器
  • 2.2.1 京东购物评论页面的抓取
  • 2.2.2 大型语料的生成与预处理
  • 2.2.3 训练、校验与测试数据集的划分
  • 2.2.4 构造词袋向量
  • 2.2.5 利用PyTorch构造神经网络
  • 2.2.6 解剖词袋神经网络
  • 2.2.7 词袋神经网络为何会犯错?
  • 2.3 RNN
  • 2.3.1 什么是RNN?
  • 2.3.2 RNN工作基本原理
  • 2.3.3 手工实现一个RNN
  • 2.3.4 RNN的缺点
  • 2.4 LSTM
  • 2.4.1 什么是LSTM?
  • 2.4.2 LSTM的工作原理
  • 2.4.3 如何运用PyTorch实现一个LSTM?

3 神经网络莫扎特——LSTM

  • 3.1 走进序列的世界
  • 3.2 教会LSTM上下文无关语法
  • 3.2.1 有限状态自动机
  • 3.2.2 上下文无关语法
  • 3.2.3 梯度爆炸与梯度消失
  • 3.2.4 LSTM的本质是什么?
  • 3.2.5 LSTM如何学会上下文无关语法?
  • 3.2.6 LSTM的变种GRU
  • 3.3 LSTM作曲家
  • 3.3.1 MIDI音乐的本质是什么?
  • 3.3.2 mido包:用Python操纵MIDI音乐
  • 3.3.3 音乐生成器的设计与训练
  • 3.3.4 PyTorch中如何使用GPU?
  • 3.3.5 Floyd——一个好用、便宜的GPU计算平台

4 彩云小译——机器翻译

  • 4.1 彩云小译简介
  • 4.2 机器翻译概述
  • 4.3 神经机器翻译原理
  • 4.3.1 双向LSTM
  • 4.3.2 编码器-解码器解构
  • 4.3.3 注意力机制概述
  • 4.3.4 Beam search原理
  • 4.4 神经机器翻译的PyTorch实现
  • 4.4.1 双语语料的准备
  • 4.4.2 双向LSTM的实现
  • 4.4.3 注意力机制的实现
  • 4.4.4 翻译效果的评估
  • 4.5 机器翻译++
  • 4.5.1 机器翻译的最新进展
  • 4.5.2 看图说话

5 游戏高手

  • 5.1 为什么要让AI玩游戏?
  • 5.2 强化学习简介
  • 5.3 深度强化学习原理
  • 5.3.1 深度强化学习的多种途径
  • 5.3.2 DQN网络工作原理
  • 5.3.3 DQN表现结果
  • 5.4 DQN玩Flappy Bird的PyTorch实现
  • 5.4.1 PyGame:用Python模拟游戏的包
  • 5.4.2 Flappy Bird的Python实现
  • 5.4.3 DQN的PyTorch实现
  • 5.4.4 效果评估
  • 5.5 我们离通用AI还有多远?
  • 5.5.1 Marcus Hutte的AIXI简介
  • 5.5.2 哥德尔机是否是终极?

如何打造你自己的聊天机器人

自然语言处理与深度学习

数据科学专题

数据科学入门教程

数据科学心法与机器学习实战

人工智能思维拓展系列课程

迎接AI时代

人工智能创业与未来社会

机器学习思维

复杂系统专题

系统科学概论

复杂性思维

复杂系统中的幂律分布

个人工具
名字空间
操作
导航
工具箱