A.防止模型欠擬合
B.提升模型的泛化能力
C.加速模型收斂
D.節(jié)省計算資源
您可能感興趣的試卷
你可能感興趣的試題
A.圖像數(shù)據(jù)
B.文本數(shù)據(jù)
C.音頻數(shù)據(jù)
D.數(shù)值數(shù)據(jù)
A.大數(shù)據(jù)分析
B.機(jī)器學(xué)習(xí)
C.人工智能
D.以上選項都對
A.梯度裁剪
B.權(quán)重衰減
C.批量歸一化
D.增加學(xué)習(xí)率
A.輸出值總是正的
B.輸出值總是負(fù)的
C.輸出值在0和1之間
D.輸出值在-1和1之間
A.小數(shù)據(jù)集、相似數(shù)據(jù)
B.小數(shù)據(jù)集、不相似數(shù)據(jù)
C.大數(shù)據(jù)集、相似數(shù)據(jù)
D.數(shù)據(jù)集、相似數(shù)據(jù)
最新試題
根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項不屬于遷移學(xué)習(xí)方法情況的是的是()。
在自然語言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識別和關(guān)系抽取的效果()?
在自然語言處理中,哪些技術(shù)可以用于改善實(shí)體識別和文本生成任務(wù)的性能()?
依存句法分析(DependencyParsing)主要用于分析什么()?
模型微調(diào)中的提示學(xué)習(xí)是指:()。
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
屬性值約束主要有()。
在機(jī)器學(xué)習(xí)中,核技巧(KernelTrick)主要用于解決什么問題()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?