A.RNN
B.CNN
C.FCNN
D.LSTM
E.GAN
您可能感興趣的試卷
你可能感興趣的試題
A.以數(shù)學眼光來看CNN是NN的子集合
B.機器學習是深度學習的一種
C.人工智能是一種深度學習
D.深度學習通常隱藏層在百層以上的神經(jīng)網(wǎng)絡,這樣才夠深
E.CNN是一種有記憶的神經(jīng)網(wǎng)絡,會記得上一次的輸入
A.神經(jīng)網(wǎng)絡調(diào)整參數(shù)的方式是一種前饋神經(jīng)網(wǎng)絡(FeedforwardNeuralNetwork)
B.學習率在迭代的參數(shù)調(diào)整過程中會固定不變
C.梯度下降是運用積分的技巧來達成
D.損失函數(shù)移動的方向跟梯度的方向相同
E.神經(jīng)網(wǎng)絡調(diào)整參數(shù)的順序是從后面一層層往前調(diào)
A.損失函數(shù)是對每個輸入的預測值與真實值的差異計算總和
B.透過梯度下降一定可以找到降低損失函數(shù)的最佳解
C.損失函數(shù)的變量是可以調(diào)整的參數(shù)
D.訓練神經(jīng)網(wǎng)絡是透過參數(shù)的調(diào)整來降低損失函數(shù)
E.梯度下降是降低損失函數(shù)的一種算法
A.傳統(tǒng)的神經(jīng)網(wǎng)絡是指全鏈接神經(jīng)網(wǎng)絡
B.全鏈接神經(jīng)網(wǎng)絡也叫標準神經(jīng)網(wǎng)絡
C.標準神經(jīng)網(wǎng)絡通常稱為NN(neuralnetwork)
D.全鏈接神經(jīng)網(wǎng)絡的每個神經(jīng)元都會跟前后層的神經(jīng)元相連
E.每個神經(jīng)元內(nèi)部的計算架構(gòu)都不一樣
A.建構(gòu)神經(jīng)網(wǎng)絡時需要知道最終的函數(shù)學習機長什么樣子
B.打造一個神經(jīng)網(wǎng)絡的函數(shù)學習機是透過編程來達成
C.神經(jīng)網(wǎng)絡模型可分成輸入層、表現(xiàn)層及輸出層
D.神經(jīng)網(wǎng)絡模型可分成輸入層、隱藏層及輸出層
E.神經(jīng)網(wǎng)絡模型可分成輸入層、激發(fā)層及輸出層
最新試題
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡訓練中的主要區(qū)別是什么()?
進行模型訓練之前,需要先把標注好的數(shù)據(jù)進行分類。訓練有監(jiān)督學習模型時會將數(shù)據(jù)集劃分為()。
在自然語言處理任務中,哪些技術(shù)適用于提升文本分類的性能()?
人工智能發(fā)展的早期階段主要側(cè)重于哪方面的研究()?
在自然語言處理中,哪些技術(shù)可以用于改善實體識別和文本生成任務的性能()?
圖像數(shù)據(jù)標注可以用于()算法中。
在機器學習中,核技巧(KernelTrick)主要用于解決什么問題()?
屬性值約束主要有()。
Xpath 語言有()的構(gòu)成。
依存句法分析(DependencyParsing)主要用于分析什么()?