2013-07-09 11 views
5

Sono un neofita di hadoop hive. stiamo usando l'hadoop hive open source. È installato su ubuntu un cluster a nodo singolo. Ho 1 milione di righe di dati in un file CSV che ho spostato da Windows a Linux. quando si caricano dati nell'alveare usando il comando foolwing, i valori nulli vengono caricati nella tabella.valori nulli che vengono caricati nella tabella hive da un file csv

LOAD DATA INPATH '/home/goldstone/Desktop/RejectStats.csv' 
OVERWRITE INTO TABLE rejstats; 

Ho anche provato a caricare i valori tplacing il file hdf ma pesa lo stesso problema.

La mia struttura della tabella è la seguente:

CREATE TABLE rejstats(amount_requested INT , appdate TIMESTAMP , loan_title STRING , dbt_income_ratio FLOAT , city STRING , state STRING , employment_lenght STRING) 
ROW FORMAT 
DELIMITED FIELDS TERMINATED BY '\t' 
STORED AS TEXTFILE; 

Vi allego la schermata dei valori nulli restituito.

per favore qualcuno potrebbe aiutarmi con questo problema. Grazie.

Saluti, Divya.

risposta

7

Penso che si stia tentando di inserire un file separato da virgola in una tabella in cui si utilizza la scheda i.e FIELDS TERMINATED BY '\t'. Prova quanto segue:

CREATE TABLE rejstats (amount_requested INT , appdate TIMESTAMP , 
loan_title STRING , dbt_income_ratio FLOAT , city STRING , 
state STRING , employment_lenght STRING) ROW FORMAT DELIMITED FIELDS 
TERMINATED BY ',' STORED AS TEXTFILE; 

LOAD DATA INPATH '/home/goldstone/Desktop/RejectStats.csv' 
OVERWRITE INTO TABLE rejstats; 
+0

Il tipo di data/ora è supportato nell'alveare? perché sto affrontando un errore durante il recupero dei dati da una tabella alveare che contiene un tipo di datario. – divya

+0

sì, a partire da Hive 0.8.0. L'hive – Neethu

+0

supporta i timestamp, ma il formato predefinito (quando si legge da una stringa tramite csv) è 'AAAA-MM-gg HH: MM: SS.000' – sfosdal

Problemi correlati