Anche se si suppone che le GPU vengano utilizzate con tipi di dati in virgola mobile, sarei interessato a quanto velocemente GPU può elaborare operazioni bit a bit. Questi sono i più veloci possibile sulla CPU, ma la GPU emula operazioni bit a bit o è completamente calcolata sull'hardware? Sto pensando di usarli all'interno dei programmi shader scritti con GLSL. Suppongo anche che se le operazioni bit a bit hanno una preformance completa, anche i tipi di dati interi dovrebbero avere, ma ho bisogno di una conferma al riguardo.Prestazioni di operazioni a numero intero e bit a bit su GPU
Per essere più precisi, le versioni mirate sono OpenGL 3.2 e GLSL 1.5. L'hardware che dovrebbe funzionare è qualsiasi scheda grafica Radeon HD e GeForce serie 8 e successive .. Se ci sono alcuni cambiamenti importanti nelle versioni più recenti di OpenGL e GLSL relative all'elaborazione di velocità di operazioni/interi bit a bit, sarei felice se tu ". Li indicherò.
È necessario specificare una particolare architettura GPU o almeno la versione OpenGL. In questo momento questa domanda è orribilmente vaga. –
@BenVoigt aggiornato, è abbastanza preciso, o hai bisogno di un nome di codice specifico dell'architettura (li cambiano come per ogni nuova scheda) – Raven
Raven: Ci sono alcuni enormi cambiamenti tra Radeon HD 1xxx e HD 7xxx, ma quella informazione extra è un grande miglioramento. Supponendo che stai guardando schede che pubblicizzano il supporto per OpenGL 3.2 (o versioni successive), questo è probabilmente abbastanza chiaro. –