Nella mia applicazione eredito una classe javastreamingaudio dal pacchetto freeTTS, quindi eludere il metodo write che invia una matrice di byte al SourceDataLine per l'elaborazione audio. Invece di scrivere sulla linea dati, scrivo questo e gli array di byte successivi in un buffer che poi porto nella mia classe e cerco di elaborare in audio. La mia applicazione processa come array di float, quindi mi converto in float e cerco di processare, ma ottengo sempre un suono statico.Conversione di byte grezzi in audio audio
Sono sicuro che questa è la strada da percorrere ma mi manca qualcosa lungo la strada. So che il suono viene elaborato come frame e ogni frame è un gruppo di byte, quindi nella mia applicazione devo elaborare i byte in frame in qualche modo. Sto guardando questo nel modo giusto? Grazie in anticipo per qualsiasi aiuto.
Aveva già capito questo, ma grazie per la vostra soluzione in quanto è quello che ho fatto. Spero che possa aiutare qualcuno prima o poi. –