Qualcuno può spiegare come funziona realmente il RecordReader? Come funzionano i metodi nextkeyvalue()
, getCurrentkey()
e getprogress()
dopo l'avvio del programma?Funzionamento di RecordReader in Hadoop
9
A
risposta
13
(nuova API): La classe predefinita Mapper ha un metodo run che assomiglia a questo:
public void run(Context context) throws IOException, InterruptedException {
setup(context);
while (context.nextKeyValue()) {
map(context.getCurrentKey(), context.getCurrentValue(), context);
}
cleanup(context);
}
I metodi Context.nextKeyValue()
, Context.getCurrentKey()
e Context.getCurrentValue()
sono wrapper per le RecordReader
metodi. Vedi il file sorgente src/mapred/org/apache/hadoop/mapreduce/MapContext.java
.
Quindi, questo ciclo esegue e chiama il metodo map(K, V, Context)
dell'implementazione Mapper.
In particolare, che altro vorresti sapere?
0
org.apache.hadoop.mapred.MapTask - runNewMapper()
Imp passi:
crea nuovo mapper
ottenere spaccato di ingresso per il mapper
ottieni il recordreader per lo split
inizializzare lettore record di
con lettore di registrazione Scorrere getNextKeyVal() e la chiave, val di mapper mappa metodo
passare ripulire
Problemi correlati
- 1. Funzionamento di RandomAccess in AbstractList.java
- 2. Modulo in ordine di funzionamento
- 3. Funzionamento ternario in CoffeeScript
- 4. Funzionamento di Datastax PreparatedStatements
- 5. Funzionamento dell'interoperabilità
- 6. Funzionamento di mmm in emacs 24
- 7. e il funzionamento di sovraccarico in python
- 8. Eliminazione di DFS in Hadoop
- 9. Calcolo del costo di funzionamento/cumulativo dell'istanza di spot EC2
- 10. Funzionamento dell'indicizzazione di SQL Server
- 11. Partecipa ordine dichiarazione di funzionamento
- 12. Differenze tra Hadoop-common, Hadoop-core e Hadoop-client?
- 13. Variabili globali in hadoop
- 14. Hadoop in rinomina file
- 15. MultipleOutputFormat in hadoop
- 16. Funzionamento su frame dati
- 17. Funzionamento modulo Floating Point
- 18. SQLAlchemy: funzionamento sui risultati
- 19. Funzionamento CC-Tray
- 20. Funzionamento delle transazioni JPA
- 21. Java: funzionamento degli array
- 22. Dove sono i file jar hadoop in hadoop 2?
- 23. Funzionamento sbt-assembly
- 24. Debug di applicazioni hadoop
- 25. Vettorializzazione (SIMD) Funzionamento dell'albero
- 26. Come evitare OutOfMemoryException durante l'esecuzione di Hadoop?
- 27. Lettura del file come record singolo in hadoop
- 28. Esempi di funzionamento di servizi Web Amazon
- 29. Hadoop streaming a python utilizzando mongo-hadoop
- 30. Esempi di funzionamento di EM :: Iterator
@ Chris..Thts molto utile .. ... e puoi spiegarci che split e dischi sono in immagine in un registratore? Sono confuso ... – Amnesiac
Le suddivisioni sono create da InputFormat e derivano dai file di input che si passano, indipendentemente dal fatto che i file di input siano divisibili e altre opzioni passate come la dimensione massima di max/min –
Ogni divisione è quindi elaborato per produrre i record che vengono passati al metodo della mappa –