2015-02-25 7 views

risposta

19

cercano hdfs dfs -du -h /hbase/data/default/ (o/HBase/a seconda della versione HBase si utilizza)

Questo vi mostrerà quanto spazio viene utilizzato da file di tabelle.

Spero che possa essere d'aiuto.

5

per 0.98+ provare hadoop fs -du -s -h $hbase_root_dir/data/data/$schema_name/ (o/HBase/per 0,94)

Potete trovare hbase_root_dir dal file HBase-site.xml del cluster. Il comando precedente fornirà il riepilogo del disco utilizzato da ciascuna tabella.

3

uso du

Usage: hdfs dfs -du [-s] [-h] URI [URI …]

Visualizza dimensioni dei file e delle directory contenuti nella directory data o la lunghezza di un file nel caso in cui il suo solo un file.

Opzioni:

L'opzione -s si tradurrà in una sintesi aggregato di file di lunghezze visualizzati, piuttosto che i singoli file.

L'opzione -h sarà formato le dimensioni dei file in modo "leggibile" (ad esempio, invece di 64.0m 67108864)

Esempio:

hdfs dfs -du -h /hbase/data/default 

uscita per me:

1.2 M /hbase/data/default/kylin_metadata 
14.0 K /hbase/data/default/kylin_metadata_acl 
636  /hbase/data/default/kylin_metadata_user 
5.6 K /hbase/data/default/test 
Problemi correlati