備考CFA考試是需要考生掌握很多知識的,那在CFA考試中有監(jiān)督學(xué)習(xí)分類或有序變量知識掌握了沒有?如果你正在備考這個知識點(diǎn)話,跟著小編一起看看CFA知識!
(1)支持向量機(jī) SVM
用線性分類器(linear classifier)分割n維超平面(hyperplane)
通過*裕度(maximum margin)來分隔數(shù)據(jù)
裕度中間為判別邊界(discriminant boundary)
(2)鄰近算法 KNN
超參數(shù)
分類和回歸樹CART
對訓(xùn)練數(shù)據(jù)的特征沒有任何假設(shè),不受約束,可能過擬合
超參數(shù)包括樹的*深度、節(jié)點(diǎn)的*小總體、決策節(jié)點(diǎn)的*數(shù)量
正則化可以減少樹的大小,將提供很少分類能力的部分修剪(pruning)
根節(jié)點(diǎn)和每個決策節(jié)點(diǎn)表示單個特征(feature)和該特征的截止值(cutoff)
二叉樹和特征空間提供了可視化的直觀解釋
(3)集成學(xué)習(xí)(ensemble learning):從一組模型中組合預(yù)測
異構(gòu)學(xué)習(xí)器的集成(aggregation of heterogeneous learners)
不同類型的算法與投票分類器相結(jié)合
多數(shù)票分類器(majority-vote classifier)為一個新數(shù)據(jù)點(diǎn)分配票數(shù)*多的預(yù)測標(biāo)簽
(4)同構(gòu)學(xué)習(xí)器的集成(aggregation of homogenous learners)
同一算法使用不同的訓(xùn)練數(shù)據(jù)的組合
自舉集成法(Bootstrap aggregation, bagging):用原始訓(xùn)練集生成n個新訓(xùn)練集
隨機(jī)森林分類器(random forest classifier):自舉集成法訓(xùn)練的大量決策樹的集合
不管你是備考CFA哪一級別的考試,這邊有CFA資料和課程可以幫助考生學(xué)習(xí)CFA知識,這邊還有2022年CFA公式表和思維導(dǎo)圖,有需要可以在線咨詢老師。