Come si configura la scalabilità automatica di AWS per scalare rapidamente? Ho configurato un gruppo di scalabilità automatica AWS con un ELB. Tutto funziona bene, tranne che richiede diversi minuti prima che le nuove istanze vengano aggiunte e siano online. Mi sono imbattuto nel seguente in un post su Puppet e autoscaling:Rapida scalabilità automatica di AWS
il momento di scala può essere abbassata da alcuni minuti a pochi secondi se l'AMI si usa per un gruppo di nodi è già aggiornato.
http://puppetlabs.com/blog/rapid-scaling-with-auto-generated-amis-using-puppet/
E 'vero? È possibile ridurre il tempo di ridimensionamento in pochi secondi? Userebbe il burattino aggiungere eventuali aumenti delle prestazioni?
Ho anche letto che istanze piccole partono più rapidamente di quelli più grandi:
Piccolo grado 1,7 GB di memoria, 1 EC2 Compute Unità (1 core virtuale con 1 EC2 Compute Unit), 160 GB di storage esempio, piattaforma a 32 bit con una installazione di base di CentOS 5,3 AMI
Quantità di tempo dal lancio di esempio per disponibilità: tra 5 e 6 minuti ci-est-1c
Grande instance 7,5 GB di memoria, 4 EC2 Unità di calcolo (2 core virtuali con 2 EC2 Compute Unità ciascuno), 850 GB di archiviazione esempio, piattaforma a 64 bit con una installazione di base di CentOS 5,3 AMI
Quantità di tempo dal lancio di esempio per disponibilità:
Tra 11 e 18 minuti ci-est-1cEntrambi sono stati avviati tramite riga di comando utilizzando gli strumenti Amazons.
http://www.philchen.com/2009/04/21/how-long-does-it-take-to-launch-an-amazon-ec2-instance
rilevo che l'articolo è vecchio e le mie istanze c1.xlarge non sono certamente prendendo 18min per il lancio. Tuttavia, la configurazione di un gruppo in scala automatica con 50 micro istanze (con una politica di aumento del 100% di aumento della capacità) sarebbe più efficiente di una con 20 istanze di grandi dimensioni? O potenzialmente creando due gruppi in scala automatica, uno dei micros per tempi di avvio rapidi e una delle grandi istanze per aggiungere un grugnito alla CPU pochi minuti dopo? A parità di tutti gli altri, quanto più veloce è un t1.micro online rispetto a un c1.xlarge?