Indexing/affettare sembra essere più veloce rispetto l'espressione regolare usata da @NPE:
In [47]: def with_indexing(dstr):
....: return datetime.datetime(*map(int, [dstr[:4], dstr[5:7], dstr[8:10],
....: dstr[11:13], dstr[14:16], dstr[17:]]))
In [48]: p = re.compile('[-T:]')
In [49]: def with_regex(dt_str):
....: return datetime.datetime(*map(int, p.split(dt_str)))
In [50]: %timeit with_regex(dstr)
100000 loops, best of 3: 3.84 us per loop
In [51]: %timeit with_indexing(dstr)
100000 loops, best of 3: 2.98 us per loop
Penso che se si utilizzasse un parser di file come numpy.genfromtxt
, l'argomento converters
e un metodo di parsing veloce delle stringhe, è possibile leggere e analizzare un intero file in meno di mezzo secondo.
ho usato la seguente funzione per creare un file di esempio con circa 25000 righe, stringhe di data ISO come indice e 10 colonne di dati:
import numpy as np
import pandas as pd
def create_data():
# create dates
dates = pd.date_range('2010-01-01T00:30', '2013-01-04T23:30', freq='H')
# convert to iso
iso_dates = dates.map(lambda x: x.strftime('%Y-%m-%dT%H:%M:%S'))
# create data
data = pd.DataFrame(np.random.random((iso_dates.size, 10)) * 100,
index=iso_dates)
# write to file
data.to_csv('dates.csv', header=False)
che ho usato il seguente codice per analizzare il file:
In [54]: %timeit a = np.genfromtxt('dates.csv', delimiter=',',
converters={0:with_regex})
1 loops, best of 3: 430 ms per loop
In [55]: %timeit a = np.genfromtxt('dates.csv', delimiter=',',
converters={0:with_indexing})
1 loops, best of 3: 391 ms per loop
pandas (sulla base di NumPy) ha un parser di file C-based che è ancora più veloce:
In [56]: %timeit df = pd.read_csv('dates.csv', header=None, index_col=0,
parse_dates=True, date_parser=with_indexing)
10 loops, best of 3: 167 ms per loop
Vuoi dire che pensi di analizzare e convertire 25.000 date, compresa la costruzione di un nuovo elenco delle stesse dimensioni dovrebbe essere più veloce di un terzo di secondo in una lingua interpretata? Potresti voler passare a una lingua compilata. –
@TimPietzcker È possibile leggere e analizzare un file contenente più di 25000 date e altre 10 colonne in meno di un terzo di secondo con numpy/panda. – bmu
Questo è quello che ho provato anche io .... – HyperCube