A.損失函數(shù)是對每個輸入的預測值與真實值的差異計算總和
B.透過梯度下降一定可以找到降低損失函數(shù)的最佳解
C.損失函數(shù)的變量是可以調整的參數(shù)
D.訓練神經(jīng)網(wǎng)絡是透過參數(shù)的調整來降低損失函數(shù)
E.梯度下降是降低損失函數(shù)的一種算法
您可能感興趣的試卷
你可能感興趣的試題
A.傳統(tǒng)的神經(jīng)網(wǎng)絡是指全鏈接神經(jīng)網(wǎng)絡
B.全鏈接神經(jīng)網(wǎng)絡也叫標準神經(jīng)網(wǎng)絡
C.標準神經(jīng)網(wǎng)絡通常稱為NN(neuralnetwork)
D.全鏈接神經(jīng)網(wǎng)絡的每個神經(jīng)元都會跟前后層的神經(jīng)元相連
E.每個神經(jīng)元內部的計算架構都不一樣
A.建構神經(jīng)網(wǎng)絡時需要知道最終的函數(shù)學習機長什么樣子
B.打造一個神經(jīng)網(wǎng)絡的函數(shù)學習機是透過編程來達成
C.神經(jīng)網(wǎng)絡模型可分成輸入層、表現(xiàn)層及輸出層
D.神經(jīng)網(wǎng)絡模型可分成輸入層、隱藏層及輸出層
E.神經(jīng)網(wǎng)絡模型可分成輸入層、激發(fā)層及輸出層
A.判定樹可以是多元樹
B.判定樹的起始點稱為根節(jié)點
C.判定樹是一種分群的機器學習技術
D.判定樹上的內部節(jié)點代表一個特征值
E.判定樹上的樹葉就是代表一種分類結果
A.支持向量機的分類函數(shù)稱為核函數(shù)(kernelfunction)
B.核函數(shù)(kernelfunction)都是非線性的
C.核函數(shù)可以多項式核函數(shù)及徑向基核函數(shù)
D.利用核函數(shù)的變化,可以將原先在低維度空間無法分類的問題轉到高維度空間達以達成需要的分類效果
E.支持向量機可以透過核函數(shù)的轉換,簡化分類的困難度
A.分群問題被定義為:將未知的新訊息歸納進已知的信息中
B.機器學習領域中的分群問題,重點在于新的數(shù)據(jù)和已分類的數(shù)據(jù)互相比較,看看新數(shù)據(jù)在分類過的數(shù)據(jù)中,和哪一類數(shù)據(jù)比較類似
C.分類問題就是一群數(shù)據(jù)中沒有明確的分類或群體,而是必須透過它們所具有的特
D.分群的問題要事先幫數(shù)據(jù)做卷標(label)
E.分群的基礎在于要根據(jù)可以區(qū)分出兩種群體的特征來分群
最新試題
在神經(jīng)網(wǎng)絡中,激活函數(shù)ReLU 的特點是什么()?
在自然語言處理任務中,哪些技術適用于提升實體識別和文本理解的準確性和效率()?
反向傳播算法的主要目的是什么()?
人工智能中的“序列到序列”模型主要用于處理什么類型的數(shù)據(jù)()?
圖像數(shù)據(jù)標注可以用于()算法中。
反向傳播算法的基本原理是基于什么()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡訓練中的關系是什么()?
在深度學習中,哪些技術可以用于加速模型訓練并提高模型在圖像分類和文本處理任務上的精確度()?
在自然語言處理任務中,哪些技術適用于改善實體識別和關系抽取的效果()?
在深度學習模型訓練中,哪些技術有助于防止過擬合并提高模型在多任務學習上的表現(xiàn)()?