In qualche modo ottengo il seguente timestamp sul mio programma. Capisco se c'è IO coinvolti, in tempo reale può essere più grande della somma del tempo degli utenti e l'ora del sistema, ma come si spiega questo quando il tempo utente da solo è più grande rispetto al tempo realetempo utente più grande del tempo reale
real 0m8.512s
user 0m8.737s
sys 0m1.956s
Intendevi pubblicare un tempo utente di esempio che è * meno * del tempo reale? –
no intendo perché l'utente costa più del reale – Daniel