A.ogistic回歸
B.SVM算法
C.CART決策樹
D.樸素貝葉斯
您可能感興趣的試卷
你可能感興趣的試題
A.隨機森林算法的分類精度不會隨著決策樹數(shù)量的增加而提高
B.隨機森林算法對異常值和缺失值不敏感
C.隨機森林算法不需要考慮過擬合問題
D.決策樹之間相關(guān)系數(shù)越低、每棵決策樹分類精度越高的隨機森林模型的分類效果越好
A.規(guī)則集的表達(dá)能力遠(yuǎn)不如決策樹好
B.基于規(guī)則的分類器都對屬性空間進(jìn)行直線劃分,并將類指派到每個劃分
C.無法被用來產(chǎn)生更易于解釋的描述性模型
D.非常適合處理類分布不平衡的數(shù)據(jù)集
A.隨機取值
B.等距離散法
C.數(shù)值規(guī)約
D.等頻離散法
A.應(yīng)用邏輯回歸時,異常值會對模型造成很大的干擾
B.邏輯回歸的自變量必須是分類變量,因此要對連續(xù)型變量進(jìn)行離散化處理
C.邏輯回歸對模型中自變量的多重共線性較為敏感
D.邏輯回歸屬于分類算法
A.預(yù)測準(zhǔn)確度
B.召回率
C.模型描述的簡潔度
D.F1-Score
最新試題
戰(zhàn)略集團(tuán)的三種用途()
供應(yīng)商的物流服務(wù)水平可以從()方面來衡量。
SQL語言由()組成。
相比其他決策分類模型,隨機森林算法模型的優(yōu)點有()。
時間序列的問題需考慮下列何者()。
SVM算法的缺點包括()。
在訓(xùn)練樣本集中,對于訓(xùn)練樣本數(shù)目不均衡的情況,處理方法妥當(dāng)?shù)氖牵ǎ?/p>
面談?wù){(diào)查的詢問方式一般有()。
關(guān)于樸素貝葉斯算法,下列說法正確的是()。
建設(shè)投資包括()等。