Ho un file Hprof da 6,5 GB che è stato scaricato da una JVM a 64 bit utilizzando l'opzione -XX:-HeapDumpOnOutOfMemoryError
. Ce l'ho seduto su una macchina da 16 GB a 64-bit, e sto cercando di farlo entrare in jhat, ma continua a rimanere senza memoria. Ho provato a passare in jvm args per le impostazioni minime, ma rifiuta qualsiasi minimo, e sembra esaurire la memoria prima di raggiungere il massimo.Caricamento di un hprof grande in jhat
Sembra un po 'sciocco che un jvm a corto di memoria scarichi un heap così grande da non poter essere caricato su una scatola con il doppio di ram. Ci sono dei modi per farlo funzionare, o magari di ammortizzare l'analisi?
Vedere anche https://stackoverflow.com/questions/7254017/tool-for-analyzing-large-java-heap-dumps – rogerdpack