2013-04-10 14 views
14

In qualche modo ottengo il seguente timestamp sul mio programma. Capisco se c'è IO coinvolti, in tempo reale può essere più grande della somma del tempo degli utenti e l'ora del sistema, ma come si spiega questo quando il tempo utente da solo è più grande rispetto al tempo realetempo utente più grande del tempo reale

real 0m8.512s 
user 0m8.737s 
sys  0m1.956s 
+0

Intendevi pubblicare un tempo utente di esempio che è * meno * del tempo reale? –

+0

no intendo perché l'utente costa più del reale – Daniel

risposta

38

Il programma è probabilmente l'utilizzo di più core ad un certo punto. Il tempo utente viene sommato rispetto ai core che sono stati utilizzati, quindi ad es. usare il 100% di due core per 1s fa per 2s utente tempo.

+0

sembra ragionevole .. questo è probabilmente quello che sto cercando. Grazie – Daniel

+3

@Daniel Per favore contrassegna come risposta accettata. –

1

Il tuo post originale ha avuto l'ora dell'utente non più grande del tempo reale. Il tempo dell'utente e del sistema insieme sono maggiori del tempo reale, ma ciò è possibile come spiegato in this entry

+0

scusate ho postato dati errati. Ecco quello corretto – Daniel

Problemi correlati