集智課程

出自集智百科
跳轉到: 導覽搜尋
Buissness集智學園封面.jpg


目錄

基礎通識專題

PyThon入門系列教程

  • 安裝Python
  • 基本功能:print、基礎數學運算、variable
  • while / for循環
  • if else 判斷
  • 定義函數、函數參數、默認參數
  • 全局變量
  • 外部模塊安裝
  • 讀寫文件
  • class 類、類的 init 功能
  • 使用 input 處理輸入
  • 元組和列表
  • list 列表
  • dictionary 字典
  • 多維列表
  • 引入模塊
  • 自定義模塊
  • 使用continue和break
  • try 錯誤處理
  • zip lambda map
  • 淺談複製、深複製
  • 使用 pickle 保存數據
  • 使用 set 找不同

Numpy|Pandas數據處理神器

  • 為什麼要使用 Numpy 和 Pandas
  • 安裝方法
  • Numpy 的基本屬性
  • 創建 Numpy 的 array
  • Numpy 基礎運算 #1
  • Numpy 基礎運算 #2
  • Numpy 使用索引
  • Numpy 合并 array
  • Numpy 分割 array
  • Numpy 複製和深複製
  • Pandas 基本介紹
  • Pandas 選擇數據
  • Pandas 設置值
  • Pandas 處理丟失數據
  • Pandas 導入導出數據
  • Pandas 使用 concat 合并數據
  • Pandas 使用 merge 合并數據
  • Pandas 使用 plot 建立圖表

Tensorflow 入門系列教程

  • 什麼是神經網絡
  • 為什麼選 Tensorflow
  • 安裝Tensorflow
  • 神經網絡在幹嘛
  • Tensorflow的處理結構
  • 會話控制
  • Variable 變量
  • Placehoder 傳入值
  • 激勵函數
  • 機器翻譯原理簡介
  • 添加層: add_layer()
  • 建造神經網絡
  • 結果可視化
  • 優化器:optimizer
  • 網絡可視化:Tensorboard
  • Classification 分類學習
  • Dropout 解決 過擬合
  • 卷積神經網絡:CNN
  • 神經網絡的保存和讀取
  • 循環神經網絡:RNN
  • 回歸問題的可視化
  • 無監督學習:Autoencoder
  • scope 命名方法
  • 批標準化:Batch Normalization

機器學習神經網絡入門

  • 什麼是機器學習
  • 什麼是神經網絡模型
  • 什麼是卷積神經網絡
  • 什麼是循環神經網絡 RNN
  • 什麼是 LSTM RNN
  • 什麼是自編碼器
  • 什麼是生成式對抗網絡(GAN)


計算機視覺專題

計算機視覺與深度學習

  • 1 計算機視覺中的深度學習概述
  • 1.1 人工神經網絡的發展簡史與現狀
  • 1.2 神經網絡基本組成:全連接、卷積、池化、激活函數
  • 1.3 深度學習常用技術:數據預處理、網絡初始化、過擬合抑制、優化器與學習率
  • 1.4 計算機視覺的熱門任務:圖像分類、物體檢測、圖像分割、風格轉換、圖像生成、視頻類等
  • 1.5 深度學習常用平台
  • 2 機器學習中的歸一化
  • 2.1 神經網絡常見特徵歸一化技術
  • 2.2 特徵歸一化技術的應用場景
  • 3 激活函數、過擬合抑制、其他網絡訓練的黑科技
  • 3.1 激活函數發展歷史
  • 3.2 激活函數的定義、性質
  • 3.3 激活函數的實例:優缺點和應用場景分析。
  • 3.4 dropout等其他過擬合抑制技術
  • 3.5 數據預處理、網絡初始化、損失函數、優化器與學習率
  • 4 常用深度神經網絡模型簡介
  • 4.1 熱門判別模型結構:包括 NIN, Inception, ResNet, DenseNet等。
  • 5 進階模型:GAN與AutoEncoder
  • 5.1 熱門生成模型結構:包括 Autoencoder等
  • 5.2生成模型與判別模型的結合:GAN
  • 6 典型應用——物體檢測
  • 6.1 物體檢測一般流程
  • 6.2 物體檢測常見技術
  • 6.3 主流物體檢測框架
  • 7 深度實例分析——可控人臉變換和高準確率人臉識別
  • 7.1 特徵提取與分離的基本概念
  • 7.2 本方法通過學習提取特徵的具體流程
  • 7.3 方法效果展示與分析

PyTorch入門 ——計算機視覺

  • 1 當“深度學習”遇上Pytorch
  • 1.1 深度學習、機器學習
  • 1.2 反向傳播算法在神經網絡中的作用
  • 1.3 深度學習算法中的架構與訓練方法
  • 1.4 兩種最重要的深度網絡:CNN、RNN
  • 1.5 深度學習的本質
  • 2 “共享單車”需要我
  • 2.1 神經網絡預測器1
  • 2.1.1 神經元細胞
  • 2.1.2 神經網絡
  • 2.1.3 神經網絡的工作原理
  • 2.2 神經網絡預測器2
  • 2.2.1 數據預處理
  • 2.2.2 利用Pytorch構建神經網絡
  • 2.2.3 預測結果及其分析
  • 2.3 對神經網絡的解剖
  • 2.4 神經網絡分類器
  • 3 我卷卷卷——卷積神經網絡
  • 3.1 將卷積過程理解為模板匹配
  • 3.2 卷積核與特徵圖的對應
  • 3.3 池化操作
  • 3.4 Dropout:防止過擬合的一種方法
  • 3.5 數據集:訓練、校驗、測試
  • 3.6 卷積神經網絡的代碼實現
  • 4 神經網絡如何“移情別戀”——遷移學習
  • 4.1 遷移學習
  • 4.2 遷移學習的兩種方式
  • 4.3 預訓練的方式效果更好
  • 4.4 風格遷移
  • 4.4.1 讓內容和風格相差最小
  • 4.4.2 Gram矩陣的計算
  • 5 “鏡像網絡”與“貓鼠遊戲”
  • 5.1 圖像生成
  • 5.2 反卷積操作的內容與含義
  • 5.3 GAN——一套新的機器學習框架
  • 5.4 優化技巧:Adam、batch normalization 、權重初始化、激活函數


GAN專題論文研讀

  • 1 基礎原理之GAN的誕生
  • 1.1 引言
  • 1.1.1 GAN產生的大環境
  • 1.1.2 其它相關方法
  • 1.2 核心思想
  • 1.3 優化目標的有效性
  • 1.4 優化方法的有效性
  • 1.5 實驗分析&後續工作
  • 1.6 總結:文章特色&GAN特色
  • 2 GAN的數據生成篇
  • 2.1 GAN的數據生成——從無到有:條件式
  • 2.1.1 InfoGAN
  • 2.1.2 cGAN
  • 2.1.3 DCGAN
  • 2.2 GAN的數據生成——從無到有:漸進式
  • 2.2.1 LAPGAN
  • 2.2.2 StackGAN
  • 2.2.3 pix2pix
  • 2.2.4 pix2pixHD
  • 2.3 GAN的數據生成——從A到B的遷移學習
  • 2.3.1 cycleGAN
  • 2.3.2 DualGAN
  • 2.3.3 DiscoGAN
  • 2.3.4 StarGAN
  • 3 GAN的模型訓練篇
  • 3.1 GAN”不好訓“的理論分析
  • 3.1.1 問題一:D無法提供梯度幫助
  • 3.1.2 問題二:訓練效果不穩定
  • 3.2 WGAN:GAN 的理論改進
  • 3.2.1 KL距離、JS距離、TV距離的不合理性
  • 3.2.2 Wasserstein距離的合理性、連續性及證明
  • 3.2.3 Wassertein距離的近似計算與近似條件
  • 3.2.4 WGAN的優化目標與優化過程
  • 3.2.5 WGAN與GAN相比的優點
  • 3.3 DCGAN:基於啟發式的 GAN 訓練技巧
  • 3.3.1 DCGAN
  • 3.3.2 Improved Techniques for Training GANs
  • 3.4 D2GAN:從 GAN 結構出發改善訓練效果
  • 3.4.1 KL距離與 reverse-KL距離
  • 3.4.2 D2GAN 的工作原理及公式分析
  • 3.4.3 D2GAN 效果的實驗驗證
  • 4 GAN的典型應用
  • 4.1 perceptual loss中圖像生成任務應用的核心優勢:
  • 4.1.1 DNN前向推斷的高效性
  • 4.1.2 優化目標:feature map的魯棒性
  • 4.2 在遷移學習與超分辨率任務中perceptual loss的應用
  • 4.3 generating videos with scene dynamics
  • 4.3.1 用對抗的方法生成視頻
  • 4.3.2 從大量無標籤視頻數據中
  • 4.3.3 雙流結構學習其中的一些dynamics
  • 4.3.4 方法特色:利用時空卷積結構;前景、背景分開建模
  • 4.4 cross-domain的image caption
  • 4.4.1 強化學習
  • 4.4.2 對抗訓練
  • 4.4.3 domain critic and multi-modal critic
  • 5 GAN的特徵學習
  • 5.1 兩類傳統無監督學習方法介紹
  • 5.1.1 產生式無監督學習方法
  • 5.1.2 判別式無監督學習方法
  • 5.2 無標籤樣本集合的問題分析與解決方法
  • 5.2.1 缺乏真實標籤時如何定義劃分標準的好壞
  • 5.2.2 GAN 的判別器 D 只能辨真假,不能分類別
  • 5.3 CatGAN 中生成器 G 和判別器 D 的表達式
  • 5.3.1 無監督形式
  • 5.3.2 半監督形式:增加一項交叉損失項
  • 6 GAN的姿態遷移
  • 6.1 目標域無標籤的無監督領域自適應問題
  • 6.2 雙判別器生成對抗網絡的設計架構
6.2.1 生成對抗學習
  • 6.2.2 帶有分類約束的判別器
  • 7 GANImation
  • 7.1 論文的主要貢獻:
  • 7.1.1 可以控制到每個AU(action unit)的幅度,而不只是離散的集中表情
  • 7.1.2 引入注意力機制,增強魯棒性
  • 7.2 模型的整體框架
  • 7.2.1 生成器結構
  • 7.2.2 判別器結構
  • 7.2.3 損失函數
  • 7.2.4 具體實現
  • 8 GAN論文串講
  • 8.1 GAN前期課程的回顧
  • 8.2 2018年GAN的新進展
  • 8.3 時令論文解讀:非監督式學習的視頻解耦表示


自然語言處理專題

中文自然語言理解(NLU)在金融領域的應用

  • 1 從中文NLP碼農到中文NLU世界
  • 1.1 自然語言處理(NLP)到自然語言理解(NLU)的任務差異
  • 1.2 語言難在哪?中文又難在哪?
  • 1.3 深度學習如何產生語意表徵
  • 1.4 RNN, LSTM, GRU用序列的角度理解語言
  • 1.5 作業項目:詞神林夕養成計劃
  • 2 從語言序列中判斷語義
  • 2.1 序列到序列(Seq2Seq)模型觀念
  • 2.2 不只教建模,當然還要教標註
  • 2.3 注意力(Attention)重新發明了序列到序列
  • 2.4 作業項目:學習做好語言標註的基本功
  • 3 對語言最強大的降維攻擊武器——詞向量
  • 3.1 Bengio的神經概率語言模型(NPLM)
  • 3.2 Word2Vec技術介紹
  • 3.3 製作詞向量的數據清洗
  • 3.4 還有哪些有趣的語言向量?
  • 3.5 撿拾低垂的語意果子--類比推理、實體枚舉
  • 3.6 知識圖譜抽取、同義字推斷
  • 3.7 降維可視化
  • 3.8 作業項目:掐頭去尾找重點:投研報告打開的正確方式
  • 4 用機器視覺解放長文本
  • 4.1 誰說中文必須要分詞,讓機器學會「看中文」
  • 4.2 中文的造字法則,如何能讓形音義三位一體
  • 4.3 用字向量從分詞任務中解脫
  • 4.4 文字卷積(Text CNN)進行語意識別
  • 4.5 從卷積的角度看語言
  • 4.6 中文的數據增強技巧
  • 4.7 作業項目:使用文字卷積評估長文本語意
  • 5 別忘了這些傳統NLP任務
  • 5.1 溫故而知新,被遺忘的依存句法分析
  • 5.2 句法結構來判讀歧異
  • 5.3 從句法結構到複雜實體關係理解
  • 5.4 作業項目:人腦搞暈的股權結構關係,沒關係有深度學習在
  • 6 提槍上戰場:基於自然語言理解的交易信號預測
  • 6.1 情感序列識別或者是篇章情感識別
  • 6.2 深度特徵到市場預測
  • 6.3 解決過擬合
  • 6.4 結業項目:基於自然語言理解的交易信號預測

PyTorch入門 ——自然語言理解

  • 1 詞彙的星空
  • 1.1 NLP總體介紹
  • 1.2 詞向量介紹
  • 1.3 Bengio的神經概率語言模型(NPLM)
  • 1.3.1 NPLM的Pytorch實現
  • 1.3.2 《三體》中的詞向量
  • 1.3.3 中文分詞與預處理
  • 1.3.4 運用Sklearn包進行PCA降維
  • 1.4 Word2Vec技術介紹
  • 1.4.1 Skip Gram模型
  • 1.4.2 負採樣技術
  • 1.4.3 gensim的Word2Vec包
  • 1.4.4 加載大型詞向量
  • 1.4.5 降維可視化
  • 1.4.6 運用詞向量進行類比推理
  • 1.4.7 運用詞向量進行查詢與搜索

2 機器也懂感情?

  • 2.1 文本分類任務介紹
  • 2.2 詞袋模型分類器
  • 2.2.1 京東購物評論頁面的抓取
  • 2.2.2 大型語料的生成與預處理
  • 2.2.3 訓練、校驗與測試數據集的劃分
  • 2.2.4 構造詞袋向量
  • 2.2.5 利用PyTorch構造神經網絡
  • 2.2.6 解剖詞袋神經網絡
  • 2.2.7 詞袋神經網絡為何會犯錯?
  • 2.3 RNN
  • 2.3.1 什麼是RNN?
  • 2.3.2 RNN工作基本原理
  • 2.3.3 手工實現一個RNN
  • 2.3.4 RNN的缺點
  • 2.4 LSTM
  • 2.4.1 什麼是LSTM?
  • 2.4.2 LSTM的工作原理
  • 2.4.3 如何運用PyTorch實現一個LSTM?

3 神經網絡莫扎特——LSTM

  • 3.1 走進序列的世界
  • 3.2 教會LSTM上下文無關語法
  • 3.2.1 有限狀態自動機
  • 3.2.2 上下文無關語法
  • 3.2.3 梯度爆炸與梯度消失
  • 3.2.4 LSTM的本質是什麼?
  • 3.2.5 LSTM如何學會上下文無關語法?
  • 3.2.6 LSTM的變種GRU
  • 3.3 LSTM作曲家
  • 3.3.1 MIDI音樂的本質是什麼?
  • 3.3.2 mido包:用Python操縱MIDI音樂
  • 3.3.3 音樂生成器的設計與訓練
  • 3.3.4 PyTorch中如何使用GPU?
  • 3.3.5 Floyd——一個好用、便宜的GPU計算平台

4 彩雲小譯——機器翻譯

  • 4.1 彩雲小譯簡介
  • 4.2 機器翻譯概述
  • 4.3 神經機器翻譯原理
  • 4.3.1 雙向LSTM
  • 4.3.2 編碼器-解碼器解構
  • 4.3.3 注意力機制概述
  • 4.3.4 Beam search原理
  • 4.4 神經機器翻譯的PyTorch實現
  • 4.4.1 雙語語料的準備
  • 4.4.2 雙向LSTM的實現
  • 4.4.3 注意力機制的實現
  • 4.4.4 翻譯效果的評估
  • 4.5 機器翻譯++
  • 4.5.1 機器翻譯的最新進展
  • 4.5.2 看圖說話

5 遊戲高手

  • 5.1 為什麼要讓AI玩遊戲?
  • 5.2 強化學習簡介
  • 5.3 深度強化學習原理
  • 5.3.1 深度強化學習的多種途徑
  • 5.3.2 DQN網絡工作原理
  • 5.3.3 DQN表現結果
  • 5.4 DQN玩Flappy Bird的PyTorch實現
  • 5.4.1 PyGame:用Python模擬遊戲的包
  • 5.4.2 Flappy Bird的Python實現
  • 5.4.3 DQN的PyTorch實現
  • 5.4.4 效果評估
  • 5.5 我們離通用AI還有多遠?
  • 5.5.1 Marcus Hutte的AIXI簡介
  • 5.5.2 哥德爾機是否是終極?

如何打造你自己的聊天機器人

  • 1 聊天機器人的前世今生
  • 1.1 聊天機器人的分布與功能
  • 1.2 常見的聊天機器人應用
  • 1.3 聊天機器人的知識庫與個人化
  • 1.4 梳理傳統聊天機器人和當下聊天機器人的異同
  • 2 聊天機器人的關鍵技術
  • 2.1 基於檢索的聊天機器人架構解析
  • 2.2 基於生成模型的聊天機器人構架解析
  • 2.3 RNN、LSTM語言模型簡介
  • 2.4 序列模型、編碼器解碼器簡介
  • 2.5 語言生成任務的挑戰
  • 2.6 注意力機制
  • 2.7 分析開發聊天機器人中的基礎框架、重要概念和關鍵技術
  • 3 任務驅動型聊天機器人
  • 3.1 任務驅動型聊天機器人的結構回顧
  • 3.2 NNDIAL工作流程分析及源碼解析
  • 3.3 基於注意力機制的生成模型
  • 3.4 CamRest676對話數據集
  • 3.5 任務驅動型聊天機器人的經典工作
  • 4 開放領域聊天機器人
  • 4.1 基於檢索的聊天機器人
  • 4.1.1 語料特徵及特徵來源
  • 4.1.2 比較語句的相似性
  • 4.1.3 相似語句語料:Quora
  • 4.2 基於檢索的聊天機器人的訓練流程
  • 4.2.1 數據預處理
  • 4.2.2 特徵工程,特徵統計與關鍵特徵提取
  • 4.3 基於檢索的多輪對話機器人
  • 4.3.1 架構原理及代碼解析
  • 4.4 基於生成模型的聊天機器人
  • 4.4.1 基本架構分析
  • 4.4.2 RNN、LSTM、Seq2Seq、Encoder-Decoder
  • 4.4.3 注意力機制
  • 4.5 基於生成模型的相關工作和技術難點
  • 5 聊天機器人與外部知識
  • 5.1 聊天機器人的常識性知識系統
  • 5.2 聊天機器人的記憶系統(上下文與歷史對話)
  • 5.3 聊天機器人的情緒/個人化
  • 5.4 改進聊天機器人用戶體驗的相關工作
  • 6 聊天機器人與增強學習
  • 6.1 基於增強學習的聊天機器人的最終任務
  • 6.2 基於增強學習的對話系統結構分析
  • 6.3 KB-InfoBot原理解析
  • 6.4 Soft-KB Lookup via Attention
  • 6.5 強化學習中的狀態(State):Belief Tracker
  • 6.6 增強學習中可採取的技巧

自然語言處理與深度學習

  • 1 Word2Vec:詞向量技術的基礎與模型
  • 1.1 詞嵌入問題以及目前詞嵌入方法的分類
  • 1.2 Word2Vec的簡單歷史與介紹
  • 1.3 CBOW和Skip-Gram算法簡介
  • 1.4 Skip-Gram的工作原理
  • 1.5 負採樣及其目的
  • 2 Word2Vec:編碼與實踐
  • 2.1 Google版本Word2Vec使用方法及程序中各個參數的含義
  • 2.2 Gensim版本的Word2Vec的使用及代碼、數據集、在線資源、可視化方法等
  • 3 詞嵌入的相關問題
  • 3.1 Glove:通過上下文和當前詞的共同出現次數的算法
  • 3.1.1 Glove的全局性與Word2Vec的局部性
  • 3.2 Word2Vec的局限性及解決方法
  • 3.3 更多解決詞嵌入問題的方法
  • 3.3.1 可解釋的關係、語法資源、非單詞單元的嵌入
  • 3.3.2 非英語的嵌入問題
  • 4 神經網絡基礎
  • 4.1 神經網絡的發展歷史
  • 4.1.1 從MP模型到Hebb學習率、Hopfield網絡
  • 4.1.2 CNN模型,ImageNet比賽和深度學習
  • 4.2 多層感知機
  • 4.2.1 什麼是多層感知機、XOR問題、多層感知機的激活函數
  • 4.2.2 什麼是反向傳播算法、梯度下降算法,以及自適應梯度下降算法
  • 4.3 正則化防止過擬合
  • 4.3.1 根據貝葉斯理論來選擇正則化的形式
  • 5 RNN在自然語言處理中的應用
  • 5.1 RNN的發展歷程:從Hopfield Network到GRU
  • 5.2 RNN的結構及其訓練
  • 5.2.1 RNN中的反向傳播算法
  • 5.2.2 梯度消失問題
  • 5.3 RNN在NLP中應用
  • 5.3.1 語言模型、序列標註、翻譯、對話等
  • 6 自然語言中的RNN實戰
  • 6.1 深度學習流行框架
  • 6.1.1 偏向底層化Torch、Theano、TensorFlow
  • 6.1.2 模塊化或高層次的Keras、Lasagne、Blocks
  • 6.2 古詩詞生成
  • 6.2.1 古詩詞生成的基本框架、生成模型的基本介紹
  • 6.2.2 N-Gram、基於RNN的語言模型
  • 6.3 自然語言處理的相關任務
  • 6.3.1 命名實體識別、語詞標註、句法分析
  • 6.3.2 注意力機制、記憶機制
  • 7 自然語言處理中的卷積神經網絡
  • 7.1 自然語言處理中的CNN的特點
  • 7.1.1 提煉語言中的多層次信息
  • 7.1.2 考慮多個詞彙的各種可能組合
  • 7.2 CNN的工作原理
  • 7.2.1 卷積操作、池化操作、特徵圖(feature map)
  • 7.3 自然語言處理中的CNN模型變種和改進
  • 7.3.1 動態池化、可變窗口大小、字符級別的CNN模型、高速公路網絡
  • 8 情感分析
  • 8.1 情感分析介紹
  • 8.1.1 什麼是情感分析,應用場景,以及語義相關任務的分類
  • 8.2 語義分析的框架
  • 8.3 語義分析數據集:Stanford Sentiment Treebank
  • 8.4 Deep Averaging Network(DAN)模型
  • 9 機器翻譯
  • 9.1 機器翻譯的技術背景與最新進展
  • 9.2 編碼-解碼框架
  • 9.3 注意力機制
  • 9.4 殘差網絡
  • 9.5 特殊的輔助機制
  • 9.6 機制翻譯的最新進展
  • 10 自然語言生成
  • 10.1 語言生成發展簡史
  • 10.1.1 早期的模板匹配、語言模板
  • 10.1.2 生成春聯、天氣預報、看圖說話
  • 10.1.3 故事生成、機器自動對話
  • 10.2 語言生成的主流框架
  • 10.2.1 基於編碼-解碼(Encoder-decoder)框架到端到端(End2End)架構
  • 10.2.2 可變編碼-解碼(Variational encoder-decoder)方法
  • 10.2.3 可變自編碼(Variational autoencoder)方法
  • 10.3 語言生成的常見問題
  • 10.3.1 語義漂移、高頻模式、文不對題等,以及相應的解決方案
  • 10.4 谷歌對話系統Allo架構

數據科學專題

數據科學入門教程

  • 1 什麼是機器學習?
  • 1.1 機器學習的基礎框架
  • 1.2 監督式學習與非監督式學習
  • 1.3 欠擬合與過擬合
  • 1.4 機器學習的不同學派
  • 1.5 從機器學習到深度學習
  • 2 機器學習能為我們做些什麼?
  • 2.1 機器學習中「輸入」與「輸出」的概念
  • 2.2 什麼是監督式學習與非監督式學習
  • 2.3 什麼是數據的測量
  • 2.4 機器學習的主要規則(算法)形態
  • 2.5 哪些是千萬別犯的錯誤推論
  • 3 如何對數據問正確的問題
  • 3.1 如何定義一個“好問題”
  • 3.2 人與機器解決問題的方法差異
  • 3.3 如何清楚定義一個輸出目標變量
  • 3.4 透過訓練-測試兩組數據來驗證是否為規則
  • 4 占卜、語言與預測
  • 4.1 關聯性與因果性
  • 4.2 明確事件發生的時間先後順序的邏輯
  • 4.3 做有意義的預測
  • 4.4 數據科學是關於時間的科學
  • 4.5 如何規劃一個預測問題的現在、過去與未來
  • 5 樣本的玄機
  • 5.1 選擇樣本一定要具有代表性
  • 5.2 大數據幫助我們更好理解世界
  • 5.3 樣本選取的原則
  • 5.3.1 樣本需要覆蓋完整的時窗周期
  • 5.3.2 排除常識,找到真正需要分析的對象
  • 5.3.3 將樣本分割為訓練集與測試集
  • 5.3.4 訓練模型時最好黑白分明
  • 6 數據的清洗術
  • 6.1 數據清洗流程回顧
  • 6.2 數據顆粒度把控
  • 6.3 需要被處理的類型數據及變量類型轉換
  • 6.4 數據正規化
  • 6.5 缺失數據、噪聲處理及深度學習的優勢
  • 7 分類算法
  • 7.1 分類算法的基礎思想
  • 7.2 Logistic 回歸
  • 7.3 決策樹與隨機森林
  • 7.4 支持向量機
  • 7.5 不要用的分類評價指標
  • 7.6 正確評價分類算法

數據科學心法與機器學習實戰

  • 1 數據無處不在
  • 1.1 預測未來是人類的天性
  • 1.2 數據能為/不能為我們作什麼?
  • 1.3 你該知道的15種數據推斷與決策的低級錯誤
  • 1.4 從大數據切換至深度學習該注意的思維轉變?
  • 2 數據科學的方法論:定義商業問題、定義分析數據
  • 2.1 CRISP-DM 6大步驟
  • 2.2 如何將商業問題正確的轉化為數據問題
  • 2.3 什麼是預測?
  • 2.4 定義數據分析的時間窗
  • 2.5 取數的基本原則
  • 2.6 如何正確定義樣本
  • 2.7 還有哪些外部數據是能夠幫助我的?
  • 3 數據科學的方法論:數據預處理
  • 3.1 傳統的數據預處理原則
  • 3.2 數據基礎探索(Data Explore Analysis)
  • 3.3 千萬別誤用的統計觀念
  • 3.4 數據可視化
  • 3.5 概率分布、極端值與離群值
  • 3.6 數據轉換
  • 3.7 數據清洗原則
  • 3.8 數據降維與特徵選取
  • 3.9 深度學習中的數據預處理原則
  • 4 分類問題的建模與評估方法
  • 4.1 分類問題:logistics regression, 隨機森林算法, svm
  • 4.2 分類問題案例:金融信用評級、精準營銷
  • 4.3 處理分類問題的關鍵
  • 4.4 如何評估分類模型
  • 4.5 欠擬合與過擬合
  • 4.6 實作:運用python演練分類問題
  • 5 推估問題的建模與評測方法
  • 5.1 推估問題:回歸、神經網絡、時間序列
  • 5.2 推估問題案例:不動產價格預測、電力需求預測
  • 5.3 如何處理與時間周期相關的數據
  • 5.4 如何找出數值間的潛在關聯
  • 5.5 如何評估推估模型
  • 5.6 實作:運用python演練推估問題
  • 6 相似性問題的建模與評估方法
  • 6.1 相似性問題:聚類、最近鄰居法
  • 6.2 無監督學習與監督式學習
  • 6.3 如何弭平人類感受與機器計算的相似性之間的落差
  • 6.4 找尋相似與相異
  • 6.5 處理聚類問題的關鍵步驟:降維
  • 6.6 實作:運用python演練聚類問題
  • 7 數據科學實務案例:運營商如何基於數據留住客戶
  • 7.1 運營商如何用數據設定留住客戶的天羅地網
  • 7.2 從識別流失到找出能打動客戶的理由
  • 7.3 模型結果如何與營銷結合
  • 7.4 如何從龐大特徵中找出關鍵特徵
  • 7.5 如何監控模型有效性
  • 8 數據科學實務案例:金融行業的案例建模與評估
  • 8.1 金融行業的信用評級模型
  • 8.2 過去二十年來標準的評分卡是怎麼做的
  • 8.3 大數據與深度學習如何處理信用
  • 8.4 新巴賽爾協議中的風險觀點
  • 8.5 如何將信用評分結果轉換為征授信策略
  • 8.6 如何評估模型以及提前預警模型失效
  • 9 數據科學實務案例:推薦算法的案例建模與評估
  • 9.1 產品內容推薦:購物車規則、協同式過濾、消費行為向量表徵
  • 9.2 推薦算法的前世今生
  • 9.3 推薦算法實踐案例:電商產品推薦
  • 9.4 網絡行為的追蹤機制
  • 9.5 我能透過網頁收集哪些數據

人工智能思維拓展系列課程

迎接AI時代

  • 1 人工智能是如何產生的?
  • 1.1 阿蘭圖靈與人工智能
  • 1.2 達特茅斯會議與人工智能的誕生
  • 1.3 人工智能發展的兩大階段
  • 2 人工智能發展現狀分析
  • 2.1 深度學習革命
  • 2.2 玩轉深度學習的三大要素
  • 2.3 深度學習開源平台:Google TensorFlow;Facebook Torchnet;Microsoft DMTK;IBM SystemML;Yahoo CaffeOnSpark;Amazon DSSTNE;Baidu PaddlePaddle;Tesla Open-AI
  • 2.4 為什麼深度學習會與眾不同?
  • 3 人工智能主要領域
  • 3.1 大數據與機器學習
  • 3.2 計算機視覺
  • 3.3 自然語言處理
  • 3.4 推薦與個性化
  • 3.5 機器人與自動化
  • 4 AI在各行各業中的應用及案例
  • 4.1 AI在醫療領域的應用
  • 4.2 AI在製造業的應用
  • 4.3 AI在金融行業的應用
  • 4.4 AI在教育中的應用
  • 4.5 AI在交通運輸中的應用
  • 4.6 人工智能的未來展望
  • 4.7 無處不在的人工智能
  • 4.8 人工智能的社會
  • 4.9 通用人工智能
  • 4.10 奇點臨近
  • 4.11 未來社會的兩級分化
  • 4.12 無用階級
  • 4.13 神人覺醒
  • 4.14 生命3.0


人工智能創業與未來社會

  • 1 人工智能與就業
  • 1.1 AI引發的失業浪潮
  • 1.2 機器最可能替代什麼樣的工作?
  • 1.3 未來就業結構會如何發生變化?
  • 1.4 AI引發的經濟增長
  • 2 人工智能對傳統企業的影響與衝擊
  • 2.1 Google的人工智能戰略
  • 2.2 BAT的轉型
  • 2.3 GE的人工智能轉型
  • 2.4 企業組織架構的變遷
  • 2.5 AI對人力資源的影響
  • 3 人工智能創業浪潮
  • 3.1 Deepmind傳奇
  • 3.2 彩雲AI的故事
  • 3.3 AI創業公司的分布
  • 4 人工智能創業方法論
  • 4.1 不同類型的AI創業
  • 4.2 深度學習與創業矩陣
  • 4.3 如何開發人工智能產品?
  • 4.4 數據、人才與市場
  • 4.5 流量思維
  • 4.6 精益創業
  • 4.7 數據飛輪
  • 5 新型工作類型
  • 5.1 眾包與人類計算
  • 5.2 零工經濟
  • 5.3 注意力經濟
  • 5.4 意願經濟
  • 5.5 體驗經濟
  • 5.6 遊戲化生存
  • 5.7 創造新崗位的四個步驟

機器學習思維

  • 1 為什麼需要機器學習思維
  • 1.1 機器學習不僅僅是一種技術
  • 1.2 Google的AI戰略
  • 1.3 複雜度危機與機器學習
  • 2 什麼是機器學習
  • 2.1 什麼是算法
  • 2.2 機器學習是算法的逆運算
  • 2.3 機器學習與歸納思維
  • 2.4 機器學習如何工作?
  • 2.5 人工神經網絡如何工作?
  • 3 機器學習思維案例分析
  • 3.1 機器學習商業戰
  • 3.2 以貌取相的人工智能
  • 3.3 人工智能“算命師”
  • 3.4 特朗普的AI策略
  • 4 什麼是深度學習
  • 4.1 深度神經網絡
  • 4.2 深度卷積神經網絡
  • 4.3 深度循環神經網絡
  • 4.4 特徵學習——深度學習的本質
  • 4.5 詞向量
  • 4.6 如何用詞向量推斷明星之間的男女關係
  • 5 什麼是遷移學習
  • 5.1 如何在小數據的條件下做遷移學習
  • 5.2 如何嫁接神經網絡
  • 5.3 遷移學習如何扶貧
  • 6 數據從何處來?
  • 6.1 開放數據源
  • 6.2 網頁扒取
  • 6.3 小數據放大
  • 6.4 眾包與遊戲化

複雜系統專題

系統科學概論

  • 1 系統科學導論
  • 1.1 從金融市場談起
  • 1.2 有效市場假說以及經濟學的革新
  • 1.3 系統及其湧現性
  • 1.4 系統科學
  • 1.5 國際發展
  • 2 自組織理論
  • 2.1 科學的發展
  • 2.2 生命是什麼
  • 2.3 時間反演對稱
  • 2.4 熱力學第二定律
  • 2.5 自組織現象
  • 2.6 自組織理論的要點
  • 2.7 自組織理論方法
  • 3 動力學與混沌
  • 3.1 動力學描述的普遍性
  • 3.2 動力學建模
  • 3.3 動力系統定性分析
  • 3.4 動力系統數值方法
  • 3.5 Logistic映射
  • 3.6 Lorenz系統
  • 4 元胞自動機
  • 4.1 初等元胞自動機
  • 4.2 初等元胞自動機的行為
  • 4.3 交通流的NS模型
  • 4.4 DLA模型
  • 4.5 沙堆模型與自組織臨界
  • 4.6 自然界中的冪律分布
  • 5 多主體建模方法
  • 5.1 多主體建模方法
  • 5.2 鳥群飛行
  • 5.3 Shelling 隔離模型
  • 5.4 少數者博弈模型
  • 6 分形的世界
  • 6.1 混沌和數學中的分形
  • 6.2 英國的海岸線有多長?
  • 6.3 Mandelbrot集合
  • 6.4 分形維數
  • 6.5 分形——不規則分形的箱覆蓋法
  • 6.6 混沌與分形小結
  • 7 複雜網絡
  • 7.1 複雜網絡研究-意義及問題
  • 7.2 複雜網絡結構度量
  • 7.3 小世界網絡
  • 7.4 無標度網絡
  • 7.5 社團結構的定義、劃分方法、空間結構
  • 7.6 網絡結構演化模型-BA模型
  • 7.7 網絡結構與功能研究簡介
  • 7.8 疾病傳播的動力學模型
  • 7.9 網絡上的SIS和ISR模型
  • 7.10 博弈與囚徒困境
  • 7.11 網絡上的博弈行為
  • 8 複雜系統中的簡單規律
  • 8.1 探索複雜性的核心科學問題
  • 8.2 探索複雜性的目標

複雜性思維

  • 1什麼是複雜性思維
  • 1.1 什麼是複雜性思維
  • 1.2 複雜性思維介紹
  • 1.3 電影中的複雜系統
  • 1.4 現實中的複雜系統
  • 1.5 世界扁平化與失控
  • 1.6 人工智能深度學習的衝擊
  • 1.7 奇點臨近
  • 1.8 什麼是複雜系統
  • 1.9 什麼是複雜系統科學
  • 2 系統科學簡史與現代複雜系統科學
  • 2.1 系統科學發展簡史
  • 2.2 生命遊戲與分形結構
  • 2.3 現代系統科學聖地:聖達菲研究院
  • 2.4 21世紀的複雜系統科學
  • 2.5 複雜網絡
  • 2.6 複雜系統的物理學
  • 2.7 大數據
  • 2.8 複雜系統相關書籍推薦
  • 3 蜂群思維與湧現
  • 3.1 大自然中的群體
  • 3.1.1 蜂群、螞蟻覓食、阿米巴蟲、鳥群
  • 3.1.2 生物學的發現
  • 3.1.3 計算機模擬螞蟻覓食
  • 3.1.4 計算機模擬鳥群規則
  • 3.2 人類的群體
  • 3.2.1 群體智慧實驗
  • 3.2.2 人類的集體行為
  • 3.2.3 社會力模型
  • 3.2.4 交通系統
  • 3.3 群體系統
  • 3.3.1 群體行為的特點
  • 3.3.2 蜂群思維
  • 3.4 群集思維的應用方法
  • 3.4.1 蟻群算法
  • 3.4.2 粒子群優化算法
  • 3.4.3 粘菌的智慧
  • 3.4.4 N皇后問題
  • 4 “湧現”與關於《馬姨》的大討論
  • 4.1 課程回顧:群體系統
  • 4.1.1 群體行為的特點
  • 4.1.2 蜂群思維
  • 4.2 課程回顧:群集思維的應用方法
  • 4.2.1 蟻群算法、粒子群優化算法、粘菌的智慧、N皇后問題
  • 4.3 湧現——群體思維的進階
  • 4.3.1 什麼是湧現
  • 4.3.2 什麼是 Pattern(斑圖)
  • 4.3.3 湧現的案例
  • 4.4 湧現與因果倒置
  • 4.5 有無相生之道
  • 4.6 關於小說《馬姨》的集體大討論
  • 5 群體模擬與Netlogo
  • 5.1 計算機模擬概論
  • 5.2 Netlogo簡介
  • 5.3 Netlogo實例
  • 5.3.1 撞球模型
  • 5.3.2 生命遊戲
  • 5.3.3 朗頓的螞蟻
  • 5.3.4 羊-草模型
  • 6 認識元胞自動機
  • 6.1 元胞自動機研究歷史
  • 6.2 森林火災模型與臨界現象
  • 6.3 沙堆模型與自組織臨界
  • 7 探索元胞自動機
  • 7.1 投票模型
  • 7.2 一維元胞自動機模型與分類
  • 7.3 元胞自動機音樂
  • 7.4 混沌的邊緣
  • 8 多主體模型模擬
  • 8.1 聚會模型
  • 8.2 種族隔離模型
  • 8.3 貨幣轉移模型
  • 8.3.1 帕累托分布
  • 8.3.2 洛倫茲曲線與基尼係數
  • 8.4 描述隨機變量的概率密度曲線
  • 8.4.1 正態分布
  • 8.4.2 冪律分布
  • 8.4.3 指數分布
  • 9 生物中的多主體模型
  • 9.1 多主體模型——鳥群模型
  • 9.2 多主體模型的一般建模步驟
  • 9.3 多主體模型與元胞自動機模型的比較
  • 10 系統動力學
  • 10.1 多主體vs系統動力學
  • 10.2 不同尺度的建模
  • 10.3 微分方程vs差分方程
  • 10.4 連續與離散
  • 10.5 Logistic迭代方程
  • 10.6 混沌
  • 10.7 分形
  • 10.8 費根鮑姆常數
  • 10.9 普適性
  • 11 複雜網絡
  • 11.1 哥尼斯堡七橋問題
  • 11.2 ER隨機圖
  • 11.2.1 網絡滲流現象
  • 11.3 Milgram實驗與六度分離理論
  • 11.3.1 Bacon遊戲
  • 11.4 網絡的距離
  • 11.4.1 聚集係數
  • 11.5 規則網vs隨機網
  • 11.5.1 WS模型
  • 11.5.2 無標度網絡
  • 11.6 網絡上的動力學
  • 12 時間與進化
  • 12.1 時間與終極問題
  • 12.2 物理學中的時間
  • 12.3 牛頓時間
  • 12.4 相對論時間
  • 12.5 熱力學時間
  • 12.6 生物學中的時間
  • 12.7 進化論
  • 12.8 遺傳算法簡介
  • 12.9 “盲目的鐘錶匠”
  • 12.10 交互式進化計算
  • 13 規模法則
  • 13.1 Scaling:規模縮放法則
  • 13.1.1 生命體
  • 13.1.2 城市
  • 13.1.3 虛擬在線社區
  • 13.1.4 公司
  • 13.2 網絡:解讀Scaling的工具
  • 13.3 Scaling得到的重要推論
  • 14 稀缺的注意力資源
  • 14.1 歷史回顧
  • 14.1.1 注意力經濟
  • 14.1.2 意願經濟
  • 14.1.3 體驗經濟
  • 14.2 占意理論
  • 14.2.1 什麼是占意
  • 14.2.2 占意的性質
  • 14.2.3 解讀互聯網現象
  • 14.3 眾包與人類計算
  • 14.3.1 眾包1.0
  • 14.3.2 眾包2.0——人類計算
  • 14.3.3 眾包+人工智能
  • 14.4 遊戲的世界
  • 15 “自我”的湧現
  • 15.1 實現自我的必要條件——反饋
  • 15.2 湧現與層次
  • 15.3 自創生系統及其特點
  • 15.4 數學中的自我——自指
  • 15.5 自指語句
  • 15.6 自繪製計算機程序
  • 15.7 蒯恩語句
  • 15.8 哥德爾定理
  • 15.9 複雜性與建構性自指
  • 15.10 生命的自複製
  • 15.11 自我意識

複雜系統中的冪律分布

  • 1 白天鵝世界中的黑天鵝
  • 1.1 白天鵝的世界
  • 1.2 黑天鵝容易被發現嗎?
  • 1.3 冪函數的對數線性
  • 1.4 奇妙的標度不變性
  • 1.5 黑天鵝有着大影響
  • 2 從地震到神經元雪崩——普適的冪律法則
  • 2.1 冪律分布在無生命的物理系統
  • 2.2 有生命人體——人類、動物和植物的行為和表現
  • 2.3 社會經濟系統中的冪律分布
  • 2.4 大腦工作也需要冪律
  • 3 從二八定律到長尾理論
  • 3.1 不同語言的統一法則
  • 3.2 Zipf律的最省力原則解釋
  • 3.3 你相信80/20定律/Pareto法則嗎?
  • 3.4 長尾理論
  • 3.5 Zipf律,Pareto法則和冪律的關係
  • 4 穩健又脆弱的無標度網絡
  • 4.1 複雜網絡研究的典型代表
  • 4.2 無標度網絡也具有普適性
  • 4.3 無標度網絡的幾何特徵
  • 4.4 無標度網絡的阿喀琉斯之踵
  • 4.5 為什麼難以根除計算機病毒?
  • 5 無標度的世紀之爭與冪律檢驗
  • 5.1 複雜網絡研究的典型代表
  • 5.2 無標度網絡也具有普適性
  • 5.3 無標度網絡的幾何特徵
  • 5.4 無標度網絡的阿喀琉斯之踵
  • 5.5 為什麼難以根除計算機病毒?
  • 6 複雜冪律背後的簡單規則
  • 6.1 Gibrat模型及其擴展
  • 6.2 貨幣轉移模型
  • 6.3 偏好依附模型
  • 6.4 猴子隨機打字模型
  • 6.5 為什麼冪律分布這麼普遍
  • 7 規模法則與冪律分布
  • 7.1 什麼是規模法則?
  • 7.2 冪律分布與冪律關係
  • 7.3 Kleiber定律
  • 7.4 城市中的規模法則
  • 7.5 多樣性的亞線性規模法則
  • 7.6 連接度的超線性規模法則
  • 7.7 從冪律分布到規模法則
  • 7.8 Zipf定律與Heaps定律
  • 7.9 規模依賴的分布
個人工具
名字空間
動作
導覽
工具箱