综合亚洲欧美,亚洲欧洲另类,逼逼爱爱,国产限制,欧美 久久国产亚洲日韩一本,欧美日韩专区国产精品,久久精品

全國 [城市選擇] [會員登錄] [講師注冊] [機構(gòu)注冊] [助教注冊]  
中國企業(yè)培訓(xùn)講師
人工智能之?dāng)?shù)據(jù)挖掘與機器學(xué)習(xí)
 
講師:葉梓 瀏覽次數(shù):2547

課程描述INTRODUCTION

數(shù)據(jù)挖掘與機器學(xué)習(xí)課程

· IT人士· 其他人員

培訓(xùn)講師:葉梓    課程價格:¥元/人    培訓(xùn)天數(shù):2天   

日程安排SCHEDULE



課程大綱Syllabus

數(shù)據(jù)挖掘與機器學(xué)習(xí)課程

課程大綱
一、概述
1、  概念與術(shù)語(人工智能、數(shù)據(jù)挖掘、機器學(xué)習(xí)…)
2、  數(shù)據(jù)挖掘的對象
3、  數(shù)據(jù)挖掘的關(guān)鍵技術(shù)
4、  知識的表達(dá)
二、數(shù)據(jù)預(yù)處理
1、  變量類型
2、  數(shù)據(jù)清理
3、  數(shù)據(jù)集成和變換
4、  數(shù)據(jù)倉庫與數(shù)據(jù)方(OLAP)
5、  規(guī)范化
6、  數(shù)據(jù)壓縮(DCT、小波變換)
三、降維與維度歸約
1、  無標(biāo)簽時:PCA
2、  有標(biāo)簽時:Fisher線性判別(第一個“LDA”)
3、  知識的約簡
4、  決策表的約簡
5、  粗糙集
四、回歸與時序分析
1、  線性回歸
2、  非線性回歸
3、  logistics回歸
4、  平穩(wěn)性、截尾與拖尾
5、  ARIMA
 
五、決策樹
1、  分類和預(yù)測
2、  熵減過程與貪心法
3、  ID3
4、  C4.5
5、  其他改進(jìn)方法
6、  決策樹剪枝
7、  歸納學(xué)習(xí)
六、聚類
1、  監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)
2、  K-means與k-medoids
3、  層次的方法
4、  基于密度的方法
5、  基于網(wǎng)格的方法
6、  孤立點分析
7、  案例:鳶尾花數(shù)據(jù)的聚類
七、關(guān)聯(lián)規(guī)則與序列挖掘
1、  頻繁項集
2、  支持度與置信度
3、  Apriori性質(zhì)
4、  連接與剪枝
5、  總有“啤酒與尿布”以外的案例吧?
6、  序列挖掘
八、惰性學(xué)習(xí)
1、  迫切學(xué)習(xí)與惰性學(xué)習(xí)
2、  K-NN分類算法
3、  基于案例的推理
 
九、機器學(xué)習(xí)中性能評價指標(biāo)
1、  準(zhǔn)確率;*率、召回率;F1
2、  真陽性率、假陽性率
3、  混淆矩陣
4、  ROC與AUC
5、  對數(shù)損失
6、  Kappa系數(shù)
7、  回歸:平均*誤差、平均平方誤差
8、  聚類:蘭德指數(shù)、互信息
十、樸素貝葉斯與貝葉斯網(wǎng)絡(luò)
1、  概率論基礎(chǔ):條件概率、聯(lián)合概率、分布、共軛先驗。
2、  “概率派”與“貝葉斯派”
3、  樸素貝葉斯模型
4、  貝葉斯信念網(wǎng)絡(luò)
5、  應(yīng)用案例介紹
十一、       極大似然估計與EM算法
1、  極大似然估計
2、  半監(jiān)督學(xué)習(xí)
3、  EM算法
4、  EM算法應(yīng)用:貝葉斯線性回歸
十二、       支持向量機
1、  統(tǒng)計學(xué)習(xí)問題
2、  結(jié)構(gòu)風(fēng)險最小歸納原理
3、  支持向量機
4、  核函數(shù)
5、  多分類的支持向量機
6、  用于連續(xù)值預(yù)測的支持向量機
7、  小案例:“拆蚊香”
 
十三、       BP神經(jīng)網(wǎng)絡(luò)
1、  人工神經(jīng)元及感知機模型
2、  前向神經(jīng)網(wǎng)絡(luò)
3、  sigmoid
4、  徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)
5、  誤差反向傳播
十四、       其他神經(jīng)網(wǎng)絡(luò)
1、  hopfield網(wǎng)絡(luò)
2、  自組織特征映射神經(jīng)網(wǎng)絡(luò)
3、  受限布爾茲曼機
4、  神經(jīng)網(wǎng)絡(luò)的應(yīng)用案例介紹
十五、       機器學(xué)習(xí)中的最優(yōu)化方法
1、  參數(shù)學(xué)習(xí)方法
2、  損失函數(shù)(或目標(biāo)函數(shù))
3、  梯度下降
4、  隨機梯度下降
5、  牛頓法
6、  擬牛頓法
7、  蠻力法也算嗎?
十六、       遺傳算法
1、  交叉、選擇、變異
2、  基本算法
3、  神經(jīng)網(wǎng)絡(luò)與遺傳算法結(jié)合的案例:井字棋
 
十七、       隱馬爾科夫模型
1、  馬爾科夫過程
2、  隱馬爾科夫模型
3、  三個基本問題(評估、解碼、學(xué)習(xí))
4、  前向-后向算法
5、  Viterbi算法
6、  Baum-Welch算法
十八、       條件隨機場
1、  *熵理論
2、  無向圖模型與MRF
3、  CRF與MRF的關(guān)系
4、  *團(tuán)與勢函數(shù)
5、  CRF的三個問題(概率計算、參數(shù)學(xué)習(xí)、預(yù)測)
6、  CRF進(jìn)行詞性標(biāo)注的案例
十九、       文本挖掘
1、文本分析功能
2、文本特征的提取
4、文本分類
5、文本聚類
6、文本摘要
二十、       Monte-Carlo法
1、  扔飛鏢計算圓周率
2、  Monte-Carlo積分
3、  接受-拒絕采樣
4、  重要性采樣
5、  MCMC方法的基本思路
6、  Metropolis-Hastings算法
7、  Gibbs采樣
 
二十一、從LSA到LDA
1、  LSA(潛在語義分析)
2、  pLSA
3、  第二個“LDA”(潛在狄利克雷分布)
二十二、網(wǎng)頁排序與商品推薦
1、  page rank
2、  基于人口統(tǒng)計學(xué)的推薦
3、  基于內(nèi)容的推薦
4、  協(xié)同過濾
5、  基于關(guān)聯(lián)規(guī)則推薦
6、  組合推薦
二十三、組合的模型
1、  bagging
2、  co-training
3、  adaboost
4、  隨機森林
5、  GBDT
二十四、強化學(xué)習(xí)
1、  MDPs中的agent的屬性
2、  exploration and exploitation
3、  Bellman期望方程
4、  最優(yōu)策略
5、  策略迭代與價值迭代
6、  Q學(xué)習(xí)算法
7、  DQN
二十五、綜合案例
1、  如何教電腦玩“flappy
bird”
2、  待定

數(shù)據(jù)挖掘與機器學(xué)習(xí)課程


轉(zhuǎn)載:http://www.jkyingpanluxiangji.com/gkk_detail/65681.html

已開課時間Have start time

在線報名Online registration

    參加課程:人工智能之?dāng)?shù)據(jù)挖掘與機器學(xué)習(xí)

    單位名稱:

  • 參加日期:
  • 聯(lián)系人:
  • 手機號碼:
  • 座機電話:
  • QQ或微信:
  • 參加人數(shù):
  • 開票信息:
  • 輸入驗證:  看不清楚?點擊驗證碼刷新
付款信息:
開戶名:上海投智企業(yè)管理咨詢有限公司
開戶行:中國銀行股份有限公司上海市長壽支行
帳號:454 665 731 584
葉梓
[僅限會員]

預(yù)約1小時微咨詢式培訓(xùn)