C'è un'idea in giro che "alert() è male"."Alert is bad" - davvero?
Ringraziamenti:
- Certo, raramente vogliono usarlo in un design attuale interfaccia utente dal momento che ci sono modi migliori per comunicare con gli utenti.
- Per il debug,
console.log()
ha molto più valore dialert()
. - Alcune situazioni (ad esempio l'uso di
setTimeout
) si verificano quandoalert()
interferisce. - I debugger effettivi gestiscono la pausa e riprendono l'esecuzione molto meglio di
alert()
, se è ciò di cui uno sviluppatore ha bisogno.
Domande:
- c'è una ragione logica solida per mai uso
alert()
? - Il valore aumentato di
console.log()
riduce veramente il valore dialert()
così drasticamente che passa da "utile in scenari limitati" a "cattivo"? - Cosa si dice a qualcuno che desidera utilizzare
alert()
in un breve test in cui la registrazione non è impostata e gli eventuali effetti collaterali sono irrilevanti (si pensi a tutorial o prototipi rapidi)?
Non ho mai sentito parlare di questa idea in questa totalità - si può citare una fonte? Ri 3.) usarlo. Non c'è niente di sbagliato in 'alert()' tranne per ciò che riconosci sopra. –
Puoi condividere qualche riferimento sull'idea che "alert() è cattivo"? – maerics
@Pekka: sembra che dovresti fare una risposta a quel commento. :) –