單項選擇題關(guān)于神經(jīng)網(wǎng)絡(luò)的學習原理敘述何者正確?()

A.神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)的方式是一種前饋神經(jīng)網(wǎng)絡(luò)(FeedforwardNeuralNetwork)
B.學習率在迭代的參數(shù)調(diào)整過程中會固定不變
C.梯度下降是運用積分的技巧來達成
D.損失函數(shù)移動的方向跟梯度的方向相同
E.神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)的順序是從后面一層層往前調(diào)


您可能感興趣的試卷

你可能感興趣的試題

1.單項選擇題關(guān)于神經(jīng)網(wǎng)絡(luò)的學習原理敘述何者錯誤?()

A.損失函數(shù)是對每個輸入的預(yù)測值與真實值的差異計算總和
B.透過梯度下降一定可以找到降低損失函數(shù)的最佳解
C.損失函數(shù)的變量是可以調(diào)整的參數(shù)
D.訓練神經(jīng)網(wǎng)絡(luò)是透過參數(shù)的調(diào)整來降低損失函數(shù)
E.梯度下降是降低損失函數(shù)的一種算法

2.單項選擇題關(guān)于神經(jīng)網(wǎng)絡(luò)的敘述何者錯誤?()

A.傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)是指全鏈接神經(jīng)網(wǎng)絡(luò)
B.全鏈接神經(jīng)網(wǎng)絡(luò)也叫標準神經(jīng)網(wǎng)絡(luò)
C.標準神經(jīng)網(wǎng)絡(luò)通常稱為NN(neuralnetwork)
D.全鏈接神經(jīng)網(wǎng)絡(luò)的每個神經(jīng)元都會跟前后層的神經(jīng)元相連
E.每個神經(jīng)元內(nèi)部的計算架構(gòu)都不一樣

3.單項選擇題關(guān)于神經(jīng)網(wǎng)絡(luò)模型的敘述何者正確?()

A.建構(gòu)神經(jīng)網(wǎng)絡(luò)時需要知道最終的函數(shù)學習機長什么樣子
B.打造一個神經(jīng)網(wǎng)絡(luò)的函數(shù)學習機是透過編程來達成
C.神經(jīng)網(wǎng)絡(luò)模型可分成輸入層、表現(xiàn)層及輸出層
D.神經(jīng)網(wǎng)絡(luò)模型可分成輸入層、隱藏層及輸出層
E.神經(jīng)網(wǎng)絡(luò)模型可分成輸入層、激發(fā)層及輸出層

4.單項選擇題關(guān)于判定樹的敘述下列何者錯誤?()

A.判定樹可以是多元樹
B.判定樹的起始點稱為根節(jié)點
C.判定樹是一種分群的機器學習技術(shù)
D.判定樹上的內(nèi)部節(jié)點代表一個特征值
E.判定樹上的樹葉就是代表一種分類結(jié)果

5.單項選擇題關(guān)于核函數(shù),下列敘述何者錯誤?()

A.支持向量機的分類函數(shù)稱為核函數(shù)(kernelfunction)
B.核函數(shù)(kernelfunction)都是非線性的
C.核函數(shù)可以多項式核函數(shù)及徑向基核函數(shù)
D.利用核函數(shù)的變化,可以將原先在低維度空間無法分類的問題轉(zhuǎn)到高維度空間達以達成需要的分類效果
E.支持向量機可以透過核函數(shù)的轉(zhuǎn)換,簡化分類的困難度