單項(xiàng)選擇題一個(gè)對(duì)象的離群點(diǎn)得分是該對(duì)象周圍密度的逆。這是基于()的離群點(diǎn)定義。

A.概率
B.鄰近度
C.密度
D.聚類


您可能感興趣的試卷

你可能感興趣的試題

1.單項(xiàng)選擇題以下哪個(gè)聚類算法不屬于基于網(wǎng)格的聚類算法()。

A.STING
B.WaveCluster
C.MAFIA
D.BIRCH

2.單項(xiàng)選擇題關(guān)于混合模型聚類算法的優(yōu)缺點(diǎn),下面說法正確的是()。

A.當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時(shí),混合模型也能很好地處理
B.混合模型比K均值或模糊c均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布
C.混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇
D.混合模型在有噪聲和離群點(diǎn)時(shí)不會(huì)存在問題

3.單項(xiàng)選擇題以下哪個(gè)聚類算法不是屬于基于原型的聚類()。

A.模糊c均值
B.EM算法
C.SOM
D.CLIQUE

4.單項(xiàng)選擇題以下屬于可伸縮聚類算法的是()。

A.CURE
B.DENCLUE
C.CLIQUE
D.OPOSSUM

最新試題

給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。

題型:判斷題

假設(shè)屬性的數(shù)量固定,則可以在時(shí)間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。

題型:判斷題

數(shù)據(jù)存儲(chǔ)體系中并不牽扯計(jì)算機(jī)網(wǎng)絡(luò)這一環(huán)節(jié)。

題型:判斷題

選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個(gè)值,并選擇最小化失真度量的值。

題型:判斷題

如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。

題型:判斷題

任何對(duì)數(shù)據(jù)處理與存儲(chǔ)系統(tǒng)的操作均需要記錄,這符合數(shù)據(jù)安全的要求。

題型:判斷題

由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。

題型:判斷題

支持向量機(jī)不適合大規(guī)模數(shù)據(jù)。

題型:判斷題

經(jīng)常跟管理層打交道并進(jìn)行有效地關(guān)于商業(yè)領(lǐng)域的討論有助于數(shù)據(jù)科學(xué)項(xiàng)目的成功。

題型:判斷題

通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時(shí),我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。

題型:判斷題