A.名稱
B.位置
C.屬性
D.內(nèi)容
您可能感興趣的試卷
你可能感興趣的試題
A.微積分法
B.微積分中的鏈?zhǔn)角髮?dǎo)法則
C.微積分中的二分法
D.微積分中的均方誤差
A.序列標(biāo)注
B.引入預(yù)訓(xùn)練模型
C.注意力機制
D.使用卷積神經(jīng)網(wǎng)絡(luò)
A.批量歸一化
B.使用卷積神經(jīng)網(wǎng)絡(luò)
C.數(shù)據(jù)增強
D.使用Dropout 技術(shù)
A.批量歸一化
B.數(shù)據(jù)增強
C.使用卷積神經(jīng)網(wǎng)絡(luò)
D.梯度裁剪
A.訓(xùn)練集
B.驗證集
C.測試集
D.備份集
最新試題
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
集成學(xué)習(xí)在強化學(xué)習(xí)中的一個常見應(yīng)用是什么()?
在自然語言處理中,哪些方法可以用于提升文本分類、情感分析和實體識別的準(zhǔn)確性()?
屬性值約束主要有()。
在自然語言處理任務(wù)中,哪些技術(shù)適用于提升實體識別和文本理解的準(zhǔn)確性和效率()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
依存句法分析(DependencyParsing)主要用于分析什么()?
智能運維AIOps 的核心技術(shù)是什么()?
進行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時會將數(shù)據(jù)集劃分為()。
在自然語言處理中,哪些方法可以用于提升自動文本摘要的生成效果()?