“集智课程”的版本间的差异

来自集智百科
跳转到: 导航搜索
第243行: 第243行:
 
== 自然语言处理专题==
 
== 自然语言处理专题==
 
===中文自然语言理解(NLU)在金融领域的应用===
 
===中文自然语言理解(NLU)在金融领域的应用===
 +
*1 从中文NLP码农到中文NLU世界
 +
:*1.1 自然语言处理(NLP)到自然语言理解(NLU)的任务差异
 +
:*1.2 语言难在哪?中文又难在哪?
 +
:*1.3 深度学习如何产生语意表征
 +
:*1.4 RNN, LSTM, GRU用序列的角度理解语言
 +
:*1.5 作业项目:词神林夕养成计划
 +
*2 从语言序列中判断语义
 +
:*2.1 序列到序列(Seq2Seq)模型观念
 +
:*2.2 不只教建模,当然还要教标注
 +
:*2.3 注意力(Attention)重新发明了序列到序列
 +
:*2.4 作业项目:学习做好语言标注的基本功
 +
*3 对语言最强大的降维攻击武器——词向量
 +
:*3.1 Bengio的神经概率语言模型(NPLM)
 +
:*3.2 Word2Vec技术介绍
 +
:*3.3 制作词向量的数据清洗
 +
:*3.4 还有哪些有趣的语言向量?
 +
:*3.5 捡拾低垂的语意果子--类比推理、实体枚举
 +
:*3.6 知识图谱抽取、同义字推断
 +
:*3.7 降维可视化
 +
:*3.8 作业项目:掐头去尾找重点:投研报告打开的正确方式
 +
*4 用机器视觉解放长文本
 +
:*4.1 谁说中文必须要分词,让机器学会「看中文」
 +
:*4.2 中文的造字法则,如何能让形音义三位一体
 +
:*4.3 用字向量从分词任务中解脱
 +
:*4.4 文字卷积(Text CNN)进行语意识别
 +
:*4.5 从卷积的角度看语言
 +
:*4.6 中文的数据增强技巧
 +
:*4.7 作业项目:使用文字卷积评估长文本语意
 +
*5 别忘了这些传统NLP任务
 +
:*5.1 温故而知新,被遗忘的依存句法分析
 +
:*5.2 句法结构来判读歧异
 +
:*5.3 从句法结构到复杂实体关系理解
 +
:*5.4 作业项目:人脑搞晕的股权结构关系,没关系有深度学习在
 +
*6 提枪上战场:基于自然语言理解的交易信号预测
 +
:*6.1 情感序列识别或者是篇章情感识别
 +
:*6.2 深度特征到市场预测
 +
:*6.3 解决过拟合
 +
:*6.4 结业项目:基于自然语言理解的交易信号预测
 
===PyTorch入门 ——自然语言理解===
 
===PyTorch入门 ——自然语言理解===
 
===如何打造你自己的聊天机器人===
 
===如何打造你自己的聊天机器人===

2019年8月16日 (五) 17:43的版本

Buissness集智学园封面.jpg


目录

基础通识专题

PyThon入门系列教程

  • 安装Python
  • 基本功能:print、基础数学运算、variable
  • while / for循环
  • if else 判断
  • 定义函数、函数参数、默认参数
  • 全局变量
  • 外部模块安装
  • 读写文件
  • class 类、类的 init 功能
  • 使用 input 处理输入
  • 元组和列表
  • list 列表
  • dictionary 字典
  • 多维列表
  • 引入模块
  • 自定义模块
  • 使用continue和break
  • try 错误处理
  • zip lambda map
  • 浅谈复制、深复制
  • 使用 pickle 保存数据
  • 使用 set 找不同

Numpy|Pandas数据处理神器

  • 为什么要使用 Numpy 和 Pandas
  • 安装方法
  • Numpy 的基本属性
  • 创建 Numpy 的 array
  • Numpy 基础运算 #1
  • Numpy 基础运算 #2
  • Numpy 使用索引
  • Numpy 合并 array
  • Numpy 分割 array
  • Numpy 复制和深复制
  • Pandas 基本介绍
  • Pandas 选择数据
  • Pandas 设置值
  • Pandas 处理丢失数据
  • Pandas 导入导出数据
  • Pandas 使用 concat 合并数据
  • Pandas 使用 merge 合并数据
  • Pandas 使用 plot 建立图表

Tensorflow 入门系列教程

  • 什么是神经网络
  • 为什么选 Tensorflow
  • 安装Tensorflow
  • 神经网络在干嘛
  • Tensorflow的处理结构
  • 会话控制
  • Variable 变量
  • Placehoder 传入值
  • 激励函数
  • 机器翻译原理简介
  • 添加层: add_layer()
  • 建造神经网络
  • 结果可视化
  • 优化器:optimizer
  • 网络可视化:Tensorboard
  • Classification 分类学习
  • Dropout 解决 过拟合
  • 卷积神经网络:CNN
  • 神经网络的保存和读取
  • 循环神经网络:RNN
  • 回归问题的可视化
  • 无监督学习:Autoencoder
  • scope 命名方法
  • 批标准化:Batch Normalization

机器学习神经网络入门

  • 什么是机器学习
  • 什么是神经网络模型
  • 什么是卷积神经网络
  • 什么是循环神经网络 RNN
  • 什么是 LSTM RNN
  • 什么是自编码器
  • 什么是生成式对抗网络(GAN)


计算机视觉专题

计算机视觉与深度学习

  • 1 计算机视觉中的深度学习概述
  • 1.1 人工神经网络的发展简史与现状
  • 1.2 神经网络基本组成:全连接、卷积、池化、激活函数
  • 1.3 深度学习常用技术:数据预处理、网络初始化、过拟合抑制、优化器与学习率
  • 1.4 计算机视觉的热门任务:图像分类、物体检测、图像分割、风格转换、图像生成、视频类等
  • 1.5 深度学习常用平台
  • 2 机器学习中的归一化
  • 2.1 神经网络常见特征归一化技术
  • 2.2 特征归一化技术的应用场景
  • 3 激活函数、过拟合抑制、其他网络训练的黑科技
  • 3.1 激活函数发展历史
  • 3.2 激活函数的定义、性质
  • 3.3 激活函数的实例:优缺点和应用场景分析。
  • 3.4 dropout等其他过拟合抑制技术
  • 3.5 数据预处理、网络初始化、损失函数、优化器与学习率
  • 4 常用深度神经网络模型简介
  • 4.1 热门判别模型结构:包括 NIN, Inception, ResNet, DenseNet等。
  • 5 进阶模型:GAN与AutoEncoder
  • 5.1 热门生成模型结构:包括 Autoencoder等
  • 5.2生成模型与判别模型的结合:GAN
  • 6 典型应用——物体检测
  • 6.1 物体检测一般流程
  • 6.2 物体检测常见技术
  • 6.3 主流物体检测框架
  • 7 深度实例分析——可控人脸变换和高准确率人脸识别
  • 7.1 特征提取与分离的基本概念
  • 7.2 本方法通过学习提取特征的具体流程
  • 7.3 方法效果展示与分析

PyTorch入门 ——计算机视觉

  • 1 当“深度学习”遇上Pytorch
  • 1.1 深度学习、机器学习
  • 1.2 反向传播算法在神经网络中的作用
  • 1.3 深度学习算法中的架构与训练方法
  • 1.4 两种最重要的深度网络:CNN、RNN
  • 1.5 深度学习的本质
  • 2 “共享单车”需要我
  • 2.1 神经网络预测器1
  • 2.1.1 神经元细胞
  • 2.1.2 神经网络
  • 2.1.3 神经网络的工作原理
  • 2.2 神经网络预测器2
  • 2.2.1 数据预处理
  • 2.2.2 利用Pytorch构建神经网络
  • 2.2.3 预测结果及其分析
  • 2.3 对神经网络的解剖
  • 2.4 神经网络分类器
  • 3 我卷卷卷——卷积神经网络
  • 3.1 将卷积过程理解为模板匹配
  • 3.2 卷积核与特征图的对应
  • 3.3 池化操作
  • 3.4 Dropout:防止过拟合的一种方法
  • 3.5 数据集:训练、校验、测试
  • 3.6 卷积神经网络的代码实现
  • 4 神经网络如何“移情别恋”——迁移学习
  • 4.1 迁移学习
  • 4.2 迁移学习的两种方式
  • 4.3 预训练的方式效果更好
  • 4.4 风格迁移
  • 4.4.1 让内容和风格相差最小
  • 4.4.2 Gram矩阵的计算
  • 5 “镜像网络”与“猫鼠游戏”
  • 5.1 图像生成
  • 5.2 反卷积操作的内容与含义
  • 5.3 GAN——一套新的机器学习框架
  • 5.4 优化技巧:Adam、batch normalization 、权重初始化、激活函数


GAN专题论文研读

  • 1 基础原理之GAN的诞生
  • 1.1 引言
  • 1.1.1 GAN产生的大环境
  • 1.1.2 其它相关方法
  • 1.2 核心思想
  • 1.3 优化目标的有效性
  • 1.4 优化方法的有效性
  • 1.5 实验分析&后续工作
  • 1.6 总结:文章特色&GAN特色
  • 2 GAN的数据生成篇
  • 2.1 GAN的数据生成——从无到有:条件式
  • 2.1.1 InfoGAN
  • 2.1.2 cGAN
  • 2.1.3 DCGAN
  • 2.2 GAN的数据生成——从无到有:渐进式
  • 2.2.1 LAPGAN
  • 2.2.2 StackGAN
  • 2.2.3 pix2pix
  • 2.2.4 pix2pixHD
  • 2.3 GAN的数据生成——从A到B的迁移学习
  • 2.3.1 cycleGAN
  • 2.3.2 DualGAN
  • 2.3.3 DiscoGAN
  • 2.3.4 StarGAN
  • 3 GAN的模型训练篇
  • 3.1 GAN”不好训“的理论分析
  • 3.1.1 问题一:D无法提供梯度帮助
  • 3.1.2 问题二:训练效果不稳定
  • 3.2 WGAN:GAN 的理论改进
  • 3.2.1 KL距离、JS距离、TV距离的不合理性
  • 3.2.2 Wasserstein距离的合理性、连续性及证明
  • 3.2.3 Wassertein距离的近似计算与近似条件
  • 3.2.4 WGAN的优化目标与优化过程
  • 3.2.5 WGAN与GAN相比的优点
  • 3.3 DCGAN:基于启发式的 GAN 训练技巧
  • 3.3.1 DCGAN
  • 3.3.2 Improved Techniques for Training GANs
  • 3.4 D2GAN:从 GAN 结构出发改善训练效果
  • 3.4.1 KL距离与 reverse-KL距离
  • 3.4.2 D2GAN 的工作原理及公式分析
  • 3.4.3 D2GAN 效果的实验验证
  • 4 GAN的典型应用
  • 4.1 perceptual loss中图像生成任务应用的核心优势:
  • 4.1.1 DNN前向推断的高效性
  • 4.1.2 优化目标:feature map的鲁棒性
  • 4.2 在迁移学习与超分辨率任务中perceptual loss的应用
  • 4.3 generating videos with scene dynamics
  • 4.3.1 用对抗的方法生成视频
  • 4.3.2 从大量无标签视频数据中
  • 4.3.3 双流结构学习其中的一些dynamics
  • 4.3.4 方法特色:利用时空卷积结构;前景、背景分开建模
  • 4.4 cross-domain的image caption
  • 4.4.1 强化学习
  • 4.4.2 对抗训练
  • 4.4.3 domain critic and multi-modal critic
  • 5 GAN的特征学习
  • 5.1 两类传统无监督学习方法介绍
  • 5.1.1 产生式无监督学习方法
  • 5.1.2 判别式无监督学习方法
  • 5.2 无标签样本集合的问题分析与解决方法
  • 5.2.1 缺乏真实标签时如何定义划分标准的好坏
  • 5.2.2 GAN 的判别器 D 只能辨真假,不能分类别
  • 5.3 CatGAN 中生成器 G 和判别器 D 的表达式
  • 5.3.1 无监督形式
  • 5.3.2 半监督形式:增加一项交叉损失项
  • 6 GAN的姿态迁移
  • 6.1 目标域无标签的无监督领域自适应问题
  • 6.2 双判别器生成对抗网络的设计架构
6.2.1 生成对抗学习
  • 6.2.2 带有分类约束的判别器
  • 7 GANImation
  • 7.1 论文的主要贡献:
  • 7.1.1 可以控制到每个AU(action unit)的幅度,而不只是离散的集中表情
  • 7.1.2 引入注意力机制,增强鲁棒性
  • 7.2 模型的整体框架
  • 7.2.1 生成器结构
  • 7.2.2 判别器结构
  • 7.2.3 损失函数
  • 7.2.4 具体实现
  • 8 GAN论文串讲
  • 8.1 GAN前期课程的回顾
  • 8.2 2018年GAN的新进展
  • 8.3 时令论文解读:非监督式学习的视频解耦表示


自然语言处理专题

中文自然语言理解(NLU)在金融领域的应用

  • 1 从中文NLP码农到中文NLU世界
  • 1.1 自然语言处理(NLP)到自然语言理解(NLU)的任务差异
  • 1.2 语言难在哪?中文又难在哪?
  • 1.3 深度学习如何产生语意表征
  • 1.4 RNN, LSTM, GRU用序列的角度理解语言
  • 1.5 作业项目:词神林夕养成计划
  • 2 从语言序列中判断语义
  • 2.1 序列到序列(Seq2Seq)模型观念
  • 2.2 不只教建模,当然还要教标注
  • 2.3 注意力(Attention)重新发明了序列到序列
  • 2.4 作业项目:学习做好语言标注的基本功
  • 3 对语言最强大的降维攻击武器——词向量
  • 3.1 Bengio的神经概率语言模型(NPLM)
  • 3.2 Word2Vec技术介绍
  • 3.3 制作词向量的数据清洗
  • 3.4 还有哪些有趣的语言向量?
  • 3.5 捡拾低垂的语意果子--类比推理、实体枚举
  • 3.6 知识图谱抽取、同义字推断
  • 3.7 降维可视化
  • 3.8 作业项目:掐头去尾找重点:投研报告打开的正确方式
  • 4 用机器视觉解放长文本
  • 4.1 谁说中文必须要分词,让机器学会「看中文」
  • 4.2 中文的造字法则,如何能让形音义三位一体
  • 4.3 用字向量从分词任务中解脱
  • 4.4 文字卷积(Text CNN)进行语意识别
  • 4.5 从卷积的角度看语言
  • 4.6 中文的数据增强技巧
  • 4.7 作业项目:使用文字卷积评估长文本语意
  • 5 别忘了这些传统NLP任务
  • 5.1 温故而知新,被遗忘的依存句法分析
  • 5.2 句法结构来判读歧异
  • 5.3 从句法结构到复杂实体关系理解
  • 5.4 作业项目:人脑搞晕的股权结构关系,没关系有深度学习在
  • 6 提枪上战场:基于自然语言理解的交易信号预测
  • 6.1 情感序列识别或者是篇章情感识别
  • 6.2 深度特征到市场预测
  • 6.3 解决过拟合
  • 6.4 结业项目:基于自然语言理解的交易信号预测

PyTorch入门 ——自然语言理解

如何打造你自己的聊天机器人

自然语言处理与深度学习

数据科学专题

数据科学入门教程

数据科学心法与机器学习实战

人工智能思维拓展系列课程

迎接AI时代

人工智能创业与未来社会

机器学习思维

复杂系统专题

系统科学概论

复杂性思维

复杂系统中的幂律分布

个人工具
名字空间
操作
导航
工具箱