theoritically si può avere 65535 blocchi per diamension della griglia, fino a 65535 * 65535 * 65535.Qual è il numero massimo di blocchi possibile in CUDA?
La mia domanda è: Se si chiama un kernel come questo kernel<<< BLOCKS,THREADS >>>()
(senza DIM3 oggetti), qual è il numero massimo disponibile per BLOCCHI?
In un'applicazione mia, l'ho impostato su 192000 e sembrava funzionare bene ... Il problema è che il kernel che ho usato cambia il contenuto di un enorme array, quindi, anche se ho controllato alcune parti del array e sembrava buono, non posso essere sicuro se il kernel si è comportato in modo strano in altre parti.
Per la cronaca ho una GPU 2.1, GTX 500 ti.
Probabilmente bello di dire che i blocchi senza DIM3 specifica solo il numero di blocchi che si desidera lungo x dimensione e quindi il limite è ancora 65535 –
So che è possibile utilizzare fino a che molti blocchi per dimensione, l'ho scritto anche alla mia domanda. Il fatto è che quando chiami un kernel come ho mostrato, qual è il numero massimo di blocchi? è 65535 o 65535^3? – STE
Bene, Pavan ringrazia! Lo sappiamo, cosa succede se metti più blocchi di quelli disponibili? Perché sembra funzionare bene – STE