您可能感興趣的試卷
你可能感興趣的試題
A.安裝部署
B.性能監(jiān)控
C.權(quán)限管理
D.虛擬機(jī)分配
A.NameNode
B.LDAP
C.OMs
D.DBService
A.減少同一個(gè)Region,同一個(gè)ColumnFamily下的文件數(shù)目
B.提升數(shù)據(jù)讀取性能
C.減少同一個(gè)ColumnFamily的文件數(shù)據(jù)
D.減少同一個(gè)Region的文件數(shù)目
A.ZooKeeper
B.HDFS
C.Master
D.meta表
A.客戶端的文件數(shù)據(jù)經(jīng)過NameNode傳遞給DataNode
B.客戶端將文件劃分為多個(gè)Block,根據(jù)DataNode的地址信息,按順序?qū)懭朊恳粋€(gè)DataNode中
C.客戶端個(gè)根據(jù)DataNode的地址信息,按順序?qū)⒄麄€(gè)文件寫入每一個(gè),然后由DataNode將文件劃分為多個(gè)Block
D.客戶端只上傳數(shù)據(jù)到一個(gè)DataNode,然后由NataNode,然后由NameNode負(fù)責(zé)Block復(fù)制。
最新試題
Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計(jì)算,計(jì)算結(jié)果只能存入HDFS,不能再寫回Kafka。()
在集群正常的情況下,Redis客戶端發(fā)起一次get調(diào)用,客戶端跟服務(wù)端有()次消息交互。
在Kafka中,關(guān)于Consumer說法正確的是()。
FusionLnsigt HD用戶想通過HBase shell操作來查詢某個(gè)HBase表中的內(nèi)容,這中場景下推薦管理員給這個(gè)用戶分配一個(gè)機(jī)機(jī)賬號。()
Fusionlnsight HD中,關(guān)于Hive的數(shù)據(jù)加載功能(通過Hivede LOAD命令導(dǎo)入數(shù)據(jù)),以下敘述錯誤的是?()
關(guān)于Fusionlnsight HD的Spark,以下哪些編程語言可以用來開發(fā)Spark應(yīng)用?()
Flume寫入HDFS時(shí),文件的生成當(dāng)時(shí)有哪些?()
由于Spark是基于內(nèi)存的計(jì)算引擎,因此,一個(gè)Spark應(yīng)用可以處理的數(shù)據(jù)量不能超過分給這個(gè)Spark應(yīng)用的內(nèi)存總和。()
Fusionlnsight HD中,一個(gè)部署在Tomcat上的應(yīng)用,需訪問HBase服務(wù),這種場景下推薦使用機(jī)機(jī)賬號。()
用戶要開發(fā)一個(gè)應(yīng)用去訪問HBase服務(wù),先申請了一個(gè)機(jī)機(jī)賬號teste1,并給它設(shè)置訪問HBase服務(wù)的權(quán)限:然后下載該賬戶的keytab文件,并使用該賬號運(yùn)行應(yīng)用。后續(xù)此應(yīng)用增加業(yè)務(wù)需求,需訪問Hive服務(wù),那么在給tested用戶補(bǔ)充授予了訪問Hive組件權(quán)限后,需重新下載該用戶的keytab文件。()