"t" significa "tipo" (o per alcune persone, typedef
, che è il comando utilizzato per creare loro). size_t
è il tipo utilizzato per specificare le dimensioni della memoria. time_t
d'altra parte, è il tipo utilizzato per specificare l'intervallo di tempo. In genere si riferiscono allo stesso tipo sottostante (un numero intero a 64 o 32 bit, a seconda della piattaforma), ma l'etichetta aiuta a mantenerli concettualmente in modo che i dettagli dell'implementazione possano essere risolti dal compilatore.
Ad esempio, time_t
deve essere utilizzato un numero intero di 32 bit, il che significa che l'orologio avrebbe girarsi nel 2038. Ma sulla maggior architetture a 64 bit, hanno ampliato time_t
essere un intero a 64 bit, il che significa i sistemi a 64 bit non avranno un problema "anno 2038". Dal momento che il codice che si occupa di timestamp unix usa il nome di tipo time_t
piuttosto che int
per fare riferimento a questi valori, tutto "funzionerà" semplicemente quando ricompilate semplicemente il codice per la nuova architettura.