La mia applicazione Android ha funzionalità di sintesi vocale e più di un'attività utilizza questa funzionalità. Quindi ho creato una classe di helper statico per renderlo semplice.Android "speak failed: non vincolato al motore tts"
import java.util.Locale;
import android.content.Context;
import android.speech.tts.TextToSpeech;
import android.speech.tts.TextToSpeech.OnInitListener;
import android.util.Log;
public class TextToSpeechController implements OnInitListener {
private static final String TAG = "TextToSpeechController";
private TextToSpeech myTTS;
private String textToSpeak;
private Context context;
private static TextToSpeechController singleton;
public static TextToSpeechController getInstance(Context ctx) {
if (singleton == null)
singleton = new TextToSpeechController(ctx);
return singleton;
}
private TextToSpeechController(Context ctx) {
context = ctx;
}
public void speak(String text) {
textToSpeak = text;
if (myTTS == null) {
// currently can't change Locale until speech ends
try {
// Initialize text-to-speech. This is an asynchronous operation.
// The OnInitListener (second argument) is called after
// initialization completes.
myTTS = new TextToSpeech(context, this);
} catch (Exception e) {
e.printStackTrace();
}
}
sayText();
}
public void onInit(int initStatus) {
if (initStatus == TextToSpeech.SUCCESS) {
if (myTTS.isLanguageAvailable(Locale.UK) == TextToSpeech.LANG_AVAILABLE)
myTTS.setLanguage(Locale.UK);
}
// status can be either TextToSpeech.SUCCESS or TextToSpeech.ERROR.
if (initStatus == TextToSpeech.SUCCESS) {
int result = myTTS.setLanguage(Locale.UK);
if (result == TextToSpeech.LANG_MISSING_DATA
|| result == TextToSpeech.LANG_NOT_SUPPORTED) {
Log.e(TAG, "TTS missing or not supported (" + result + ")");
// Language data is missing or the language is not supported.
// showError(R.string.tts_lang_not_available);
} else {
// Initialization failed.
Log.e(TAG, "Error occured");
}
}
}
private void sayText() {
// ask TTs to say the text
myTTS.speak(this.textToSpeak, TextToSpeech.QUEUE_FLUSH, null);
}
public void stopTTS() {
if (myTTS != null) {
myTTS.shutdown();
myTTS.stop();
myTTS = null;
}
}
}
Sto usando questa classe di supporto come questa.
TextToSpeechController.getInstance(this).speak(readableMessage);
Ma a volte vedo un errore come la mancanza di righe in LogCat.
"speak:failed not bound to tts engine"
Nessuna eccezione generata ma nulla letto da TTS. Mi sono reso conto che se ho attivato l'attività da BroadcastReceiver, ho ricevuto questo errore. Altrimenti se l'attività di apertura manuale dal codice dell'applicazione funziona senza problemi.
Ecco il codice BroadcastReceiver
private final BroadcastReceiver mHandleMessageReceiver = new BroadcastReceiver() {
@Override
public void onReceive(Context context, Intent intent) {
String newMessage = intent.getExtras().getString(EXTRA_MESSAGE);
String readableMessage = intent.getExtras().getString(READABLE_MESSAGE);
Bundle b = new Bundle();
b.putString(EXTRA_MESSAGE, newMessage);
b.putString(READABLE_MESSAGE, readableMessage);
Intent newIntent = new Intent("android.intent.action.MAIN");
newIntent.setClass(context, Speak.class);
newIntent.setFlags(Intent.FLAG_ACTIVITY_NEW_TASK);
newIntent.putExtra("MessageReceived", b);
newIntent.putExtra("CallType", CallType.NOTIFICATION);
context.startActivity(newIntent);
}
};
così come posso fare questo? Thread.Sleep? Non so come posso dire, aspetta finchè non si parla. –
Ciao. Possiamo iniziare questo thread TTS in parallelo? –