A.定性預(yù)測(cè)
B.情景預(yù)測(cè)
C.時(shí)間序列預(yù)測(cè)
D.回歸預(yù)測(cè)
您可能感興趣的試卷
你可能感興趣的試題
A.各處理?xiàng)l件下的樣本均來自正態(tài)總體
B.各處理?xiàng)l件下的樣本相互獨(dú)立
C.各處理?xiàng)l件下樣本的方差都相等
D.各處理?xiàng)l件下樣本均值相等,方差可以不等
A.凝聚方式聚類
B.分解方式聚類
C.Q型聚類
D.R型聚類
A.ogistic回歸
B.SVM算法
C.CART決策樹
D.樸素貝葉斯
A.隨機(jī)森林算法的分類精度不會(huì)隨著決策樹數(shù)量的增加而提高
B.隨機(jī)森林算法對(duì)異常值和缺失值不敏感
C.隨機(jī)森林算法不需要考慮過擬合問題
D.決策樹之間相關(guān)系數(shù)越低、每棵決策樹分類精度越高的隨機(jī)森林模型的分類效果越好
A.規(guī)則集的表達(dá)能力遠(yuǎn)不如決策樹好
B.基于規(guī)則的分類器都對(duì)屬性空間進(jìn)行直線劃分,并將類指派到每個(gè)劃分
C.無法被用來產(chǎn)生更易于解釋的描述性模型
D.非常適合處理類分布不平衡的數(shù)據(jù)集
最新試題
決策樹模型的缺點(diǎn)有()。
時(shí)間序列會(huì)受()因素共同作用。
對(duì)于同一個(gè)樣本集,下列說法正確是()。
SVM算法的缺點(diǎn)包括()。
下列戰(zhàn)略中屬于合資經(jīng)營(yíng)中的基本戰(zhàn)略的是()。
在訓(xùn)練樣本集中,對(duì)于訓(xùn)練樣本數(shù)目不均衡的情況,處理方法妥當(dāng)?shù)氖牵ǎ?/p>
測(cè)度數(shù)據(jù)集中趨勢(shì)的指標(biāo)可分為()兩大類。
以下對(duì)SVM算法的描述中正確的是()。
關(guān)于樸素貝葉斯算法,下列說法正確的是()。
因子分析的作用是()。