2012-02-19 10 views
6

Il codice seguente aggiunge compiti che eseguono alcune elaborazioni sul file dal blobstore, che gira su un B2 backend quindi non ha limite di timeout:appengine, python: c'è una perdita di memoria in taskqueue.add()?

for task in tasks: 
    tools.debug("add_tasks_to_process_files", "adding_task") 

    taskqueue.add(\ 
      name=("Process_%s_files---%s--%s--%s--%s" % \ 
         (len(tasks[task]), task[1], task[0], task[2], int(time.time()))),\ 
      queue_name="files-processor",\ 
      url="/analytics/process_files/",\ 
      params={"processing_task": json.dumps({"profile": task, "blobs_to_process": tasks[task]})}) 

compiti è un dizionario nel seguente formato:

{ 
    (x1,y1,z1): ["blob_key", "blob_key"... (limited to 35 keys)], 
    (x2,y2,z2): ["blob_key", "blob_key"...], 
    . 
    . 
    . 
} 

x1, y1, z1 sono tutte le stringhe

tools.debug è una funzione che ho scritto che invia messaggi al mio sever locale utilizzando UrlFetch (quindi non dovrete aspettare 20m per essere in grado di leggere i log):

def debug(location, message, params=None, force=False): 
    if not (settings.REMOTE_DEBUG or settings.LOCALE_DEBUG or force): 
     return 

    if params is None: 
     params = {} 

    params["memory"] = runtime.memory_usage().current() 
    params["instance_id"] = settings.INSTANCE_ID 

    debug_message = "%s/%s?%s" % (urllib2.quote(location), urllib2.quote(message), "&".join(["%s=%s" % (p, urllib2.quote(unicode(params[p]).encode("utf-8"))) for p in params])) 

    if settings.REMOTE_DEBUG or force: 
     fetch("%s/%s" % (settings.REMOTE_DEBUGGER, debug_message)) 

    if settings.LOCALE_DEBUG or force: 
     logging.debug(debug_message) 

poiché tools.debug non era nel codice quando in primo luogo è fallito, so per certo che non è la causa per i problemi di memoria.

ho ottenuto questo errore:

/add_tasks_to_process_files/ 500 98812ms 0kb instance=0 AppEngine-Google; (+http://code.google.com/appengine): 
    A serious problem was encountered with the process that handled this request, causing it to exit. This is likely to cause a new process to be used for the next request to your application. If you see this message frequently, you may have a memory leak in your application. (Error code 201) 

E subito dopo:

/_ah/stop 500 110ms 0kb 
Exceeded soft private memory limit with 283.406 MB after servicing 1 requests total 

ancora una volta, l'ho ricevuto per il codice precedente senza la linea: tools.debug("add_tasks_to_process_files", "adding_task")

Ora, mi permetta mostra quello che vedo nel mio debugger:

1 2012-1-19 14:41:38 [processors-backend] processors-backend-initiated instance_id: 1329662498, memory: 18.05078125, backend_instance_url: http://0.processors.razoss-dock-dev.appspot.com, backend_load_balancer_url: http://processors.razoss-dock-dev.appspot.com 
2 2012-1-19 14:41:39 [AddTasksToProcessFiles] start instance_id: 1329662498, files_sent_to_processing_already_in_previous_failed_attempts: 0, memory: 19.3828125 
3 2012-1-19 14:41:59 [AddTasksToProcessFiles] add_tasks_to_process_files-LOOP_END total_tasks_to_add: 9180, total_files_added_to_tasks: 9184, task_monitor.files_sent_to_processing: 0, total_files_on_tasks_dict: 9184, instance_id: 1329662498, memory: 56.52734375 
4 2012-1-19 14:42:0 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 57.81640625 
5 2012-1-19 14:42:0 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 57.81640625 
6 2012-1-19 14:42:1 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 57.9375 
7 2012-1-19 14:42:2 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 57.9375 
8 2012-1-19 14:42:2 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 58.03125 
. 
. 
. 
2183 2012-1-19 14:53:45 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 280.66015625 
2184 2012-1-19 14:53:45 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 280.66015625 
2185 2012-1-19 14:53:45 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 281.0 
2 186 2012-1-19 14:53:46 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 281.0 
2187 2012-1-19 14:53:46 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 281.0 
2188 2012-1-19 14:53:46 [add_tasks_to_process_files] adding_task instance_id: 1329662498, memory: 281.3828125 

traccia completa: http://pastebin.com/CcPDU6s7

C'è una perdita di memoria in taskqueue.add()?

Grazie

+0

Come si valuta l'utilizzo della memoria? – proppy

+0

Avete un modello di utilizzo della memoria simile se si rimuove la chiamata api blobstore dalle attività? – proppy

+0

Hi proppy: ho trovato la causa: l'appstats è stato abilitato ... grazie comunque – theosp

risposta

3

Anche se questo non risponde alla tua domanda particolare, hai provato Queue ad aggiungere attività in lotti?

http://code.google.com/appengine/docs/python/taskqueue/queues.html#Queue_add

È possibile aggiungere fino a 100 attività contemporaneamente.

http://code.google.com/appengine/docs/python/taskqueue/overview-push.html#Quotas_and_Limits_for_Push_Queues

codice non testato.

queue = taskqueue.Queue(name="files-processor") 
while tasks: 
    queue.add(taskqueue.Task(...) for k,v in (tasks.popitem() for _ in range(min(len(tasks),100)))) 

Se si desidera continuare a utilizzare tasks altrove dovreste cambiare leggermente questo costrutto (o fare una copia).

+0

non l'ho fatto, ma lo farò sicuramente! grazie – theosp

+0

Sostituendo il codice originale con questo abbiamo risolto il problema per noi (ora funziona per il carico massimo che vogliamo supportare). Potrebbe essere a causa di meno chiamate a queue.add. Non ho provato a vedere se l'invio di x100 altre attività causasse il problema originale: mancanza di tempo e non pianifichiamo i nostri carichi per produrre questa quantità di compiti ... grazie mille! – theosp

+0

E, una domanda: c'è un motivo per cui hai deciso di usare range() invece di xrange()? – theosp