【課程時長】
6天(6小時/天)
【課程簡介】
人工智能的浪潮正在席卷全球,各種培訓課程應運而生,但真正能讓學員系統、全面掌握知識點,并且能學以致用的實戰課程并不多見。本課程包含機器學習、深度學習的重要概念及常用算法(決策樹、關聯規則、聚類、貝葉斯網絡、神經網絡、支持向量機、隱馬爾科夫模型、遺傳算法、CNN、RNN、GAN等),以及人工智能領域當前的熱點。通過6天的系統學習、案例講解和動手實踐,讓學員能初步邁入機器學習和深度學習的知識殿堂。
【課程收益】
ü
掌握數據挖掘與機器學習基本知識;
ü
掌握數據挖掘與機器學習進階知識;
ü
掌握深度學習的理論與實踐;
ü
掌握Python開發技能;
ü
掌握深度學習工具:TensorFlow、Keras等;
ü
為學員的后續項目應用提供針對性的建議。
【課程特點】
本課程力圖理論結合實踐,強調從零開始,重視動手實踐;課程內容以原理講解為根本,以應用落地為目標。課程通過大量形象的比喻和手算示例來解釋復雜的機器學習理論,既能將原理充分講懂講透,也避免了繁復而枯燥的公式推導。
【課程對象】
計算機相關專業本科;或理工科本科,且至少熟悉一門編程語言。
【主講專家】
葉梓,博士、高級工程師。2005年上海交通大學計算機專業博士畢業,主研方向為數據挖掘、機器學習、人工智能等?,F為某大型上市軟件企業的人工智能團隊技術負責人。曾主持設計并搭建上海市衛計委衛生大數據平臺、無錫市衛生大數據平臺,在大數據、人工智能應用等方面有著豐富的工程實踐經驗。先后在SCI或EI期刊上發表論文4篇,在中文核心期刊上發表論文近20篇,并被百度學術收錄。2011年獲中國醫院協會科技創新一等獎。
【學員基礎】
具備初步的IT基礎知識
【課程大綱】(培訓內容可根據客戶需求調整)
時間
內容
案例實踐與練習
Day1初識機器學習
上午
概述入門
數據預處理
概述(第一天——1)
1、
概念與術語(人工智能、數據挖掘、機器學習)
2、
數據挖掘的對象
3、
數據挖掘的關鍵技術
4、
知識的表達
5、
Python的安裝
數據預處理(第一天——2)
1、
數據清理
2、
規范化
3、
模糊集
4、
粗糙集
5、
無標簽時:PCA
6、
有標簽時:Fisher線性判別
數據壓縮(DFT、小波變換)
案例實踐:
1、 python安裝
2、 Tensorflow安裝
3、 PCA的實驗
4、 DFT的實驗
Day1初識機器學習
下午
回歸與時序分析
決策樹
回歸與時序分析 (第一天——3)
1、
線性回歸
2、
非線性回歸
3、
logistics回歸
4、
平穩性、截尾與拖尾
5、
ARIMA
決策樹(第一天——4)
1、
分類和預測
2、
熵減過程與貪心法
3、
ID3
4、
C4.5
5、
其他改進方法
決策樹剪枝
案例實踐:
1、 回歸的實驗
2、 ARIMA預測實驗
3、 決策樹的實驗
Day2機器學習中的典型算法
上午
聚類
關聯規則
樸素貝葉斯與KNN
聚類(第二天——1)
1、
監督學習與無監督學習
2、
K-means與k-medoids
3、
層次的方法
4、
基于密度的方法
5、
基于網格的方法
6、
孤立點分析
關聯規則(第二天——2)
1、
頻繁項集
2、
支持度與置信度
3、
提升度
4、
Apriori性質
5、
連接與剪枝
樸素貝葉斯與KNN(第二天——3)
1、
KNN
2、
概率論基礎:條件概率、聯合概率、分布、共軛先驗。
3、
“概率派”與“貝葉斯派”
4、
樸素貝葉斯模型
案例實踐:
1、 鳶尾花數據的聚類
2、 超市購物籃——關聯規則分析
3、 樸素貝葉斯案例:皮馬印第安人患糖尿病的風險
Day2機器學習中的典型算法
下午
極大似然估計與EM算法
性能評價指標
極大似然估計與EM算法(第二天——4)
1、
極大似然估計
2、
對數似然函數
3、
EM算法
性能評價指標(第二天——5)
1、
準確率;精確率、召回率;F1
2、
真陽性率、假陽性率
3、
混淆矩陣
4、
ROC與AUC
5、
對數損失
6、
Kappa系數
7、
回歸:平均絕對誤差、平均平方誤差
8、 聚類:蘭德指數、互信息
9、 k折驗證
案例實踐:
1、 正態分析的參數估計
2、 EM算法應用案例:雙正態分布的參數估計
3、 繪制ROC并計算AUC、F1
4、 繪制擬合曲線,計算擬合優度
Day3神經網絡專題
上午
BP神經網絡
模擬退火算法與其他神經網絡
BP神經網絡
(第三天——1)
1、
人工神經元及感知機模型
2、
前向神經網絡
3、
sigmoid
4、
徑向基函數神經網絡
5、
誤差反向傳播
模擬退火算法與其他神經網絡 (第三天——2)
1、
模擬退火算法
2、
Hopfield網絡
3、
自組織特征映射神經網絡(SOM)
4、 受限布爾茲曼機
案例實踐:
1、 可以手算的神經網絡
2、 神經網絡模擬一個圓錐曲面
3、 “貨郎擔”問題(模擬退火算法)
4、 識別破損的字母(Hopfield網絡)
5、 聚類的另一種解法(SOM)
Day3神經網絡專題
下午
機器學習中的最優化方法
遺傳算法
機器學習中的最優化方法(第三天——3)
1、
參數學習方法
2、
損失函數(或目標函數)
3、
梯度下降
4、
隨機梯度下降
5、
牛頓法
6、
擬牛頓法
遺傳算法 (第三天——4)
1、
種群、適應性度量
2、
交叉、選擇、變異
3、 基本算法
案例實踐:
1、 隨機梯度下降的例子
2、 牛頓法求Rosenbrock(香蕉函數)的極值
3、 “同宿舍”問題:遺傳算法
Day4機器學習進階
上午
支持向量機
隱馬爾科夫模型
支持向量機 (第四天——1)
1、
統計學習問題
2、
支持向量機
3、
核函數
4、
多分類的支持向量機
5、
用于連續值預測的支持向量機
隱馬爾科夫模型(第四天——2)
1、
馬爾科夫過程
2、
隱馬爾科夫模型
3、
三個基本問題(評估、解碼、學習)
4、
前向-后向算法
5、
Viterbi算法
6、
Baum-Welch算法
案例實踐:
1、 SVM:iris的三個分類
2、 HMM示例:天氣與地表積水、罐中的彩球
3、 HMM之前向算法:擲骰子的序列
4、 HMM之viterbi算法:是否生病了?
Day4機器學習進階
下午
文本挖掘
從LSA到LDA
文本挖掘(第四天——3)
1、文本分析功能
2、文本特征的提取
4、TF-IDF
5、文本分類
5、文本聚類
從LSA到LDA(第四天——3)
1、
LSA
2、
pLSA
3、
LDA
案例實踐:
1、 英文文本分析;
2、 中文文本分析:《絕代雙驕》
3、 中文語句情感分析
4、 LSA和LDA的比較
Day5機器學習進階與深度學習初步
上午
利用無標簽的樣本
集成學習
利用無標簽的樣本(第五天——1)
1、
半監督學習
2、
直推式學習
3、
主動學習
集成學習(第五天——2)
1、
bagging
2、
co-training
3、
adaboost
4、
隨機森林
5、 GBDT
案例實踐:
1、 半監督學習:SVM標簽擴展;
2、 主動學習:手寫數字
3、bagging、adaboost、RF、GBDT的例子
Day5機器學習進階與深度學習初步
下午
強化學習
深度學習-1
強化學習(第五天——3)
1、
agent的屬性
2、
exploration
and exploitation
3、
Bellman期望方程
4、
最優策略
5、
策略迭代與價值迭代
6、
Q學習算法
深度學習-1(第五天——4)
1、
連接主義的興衰
2、
深度學習與神經網絡的區別與聯系
3、
目標函數
4、
激勵函數
學習步長
案例實踐:
1、 強化學習示例:走迷宮
2、 強化學習:谷底的小車
3、 深度學習示例:模式識別
Day6深度學習
上午
深度學習-2
深度學習-3
深度學習-2(第六天——1)
1、
優化算法
2、
Adagrad
3、
RMSprop
4、
Adam
5、
避免過適應
深度學習-3(第六天——2)
1、
典型應用場景
2、
CNN
3、
各種CNN
4、
RNN
LSTM、GRU
案例實踐:
1、 CNN的準備示例
2、 CNN處理MNIST手寫數字數據集
3、 RNN準備示例
4、 RNN分析股票趨勢
5、 LSTM的準備示例
Day6深度學習
下午
深度學習-4
1、
GAN
2、
DQN
案例實踐:
1、 DQN結合CNN:“flappy bird”