Ecco un semplice programma, che ha appena consuma RAM:
import java.util.*;
/**
RamInit (c) GPLv3
@author Stefan Wagner
@date Do 22. Mär 08:40:40 CET 2012
*/
public class RamInit
{
private java.lang.Object consumer;
public RamInit (char type, int size)
{
switch (type)
{
case 'a': Integer [] ai = new Integer [size];
for (int i = 0; i < size; ++i)
ai[i] = i;
consumer = ai;
break;
case 'l': List<Integer> li = new ArrayList<Integer>();
for (int i = 0; i < size; ++i)
li.add (i);
consumer = li;
break;
case 'h': HashMap <Integer, Integer> hm = new HashMap <Integer, Integer>();
for (int i = 0; i < size; ++i)
hm.put (i, size - i);
consumer = hm;
break;
case 'L': LinkedList <Integer> ll = new LinkedList <Integer>();
for (int i = 0; i < size; ++i)
ll.add (i);
consumer = ll;
break;
default: System.err.println ("invalid: " + type);
}
}
public static void main (String args[])
{
char type = 'a';
int size = 1000000; // 1M
if (args.length == 2)
{
type = args[0].charAt (0);
size = Integer.parseInt (args[1]);
}
try {
new RamInit (type, size);
}
catch (OutOfMemoryError oome)
{
System.exit (1);
}
}
}
E qui è uno script molto semplice per provarlo:
#!/bin/bash
iterProg() {
ram=$1
maxram=$2
typ=$3
size=$4
# echo java -Xmx${ram}M RamInit $typ $((size*1000*1000))
echo -n "."
java -Xmx${ram}M RamInit $typ $((size*1000*1000)) && echo -en "\n"$typ $size ${ram}M || {
if (($ram==$maxram))
then
# echo "fail"
return
else
iterProg $((ram+1)) $maxram $typ $size
fi
}
}
# try from 16 MB to 256
for typ in {a,l,h,L}; do
for size in {1,2,4}; do
iterProg $((size*17+1)) 256 $typ $size
done
done
È un iteratore primitivo e deve essere sostituito da qualcosa di più sofisticato - per esempio se hai bisogno di 37MB per chiamare RamInit con gli elementi Collection a e 1M, dovresti iniziare per elementi 2M con qualcosa in più.
E dovresti scegliere i passaggi in una ricerca binaria, ad esempio se 20M è troppo basso, verifica 128, quindi (20 + 128)/2, quindi la media di quello, a seconda del successo o dell'errore con il limite inferiore o il limite superiore.
Poiché una HashMap memorizza 2 Ints per elemento, potrebbe iniziare con la dimensione approssimativa di Lista/Matrice/Vettore. Tuttavia - tempo vola come una freccia, e durante la scrittura, il risultato è finito:
bash iterRamFind.sh
..
a 1 19M.....
a 2 39M...............
a 4 83M..
l 1 19M.......
l 2 41M.......................
l 4 91M..............................................
h 1 63M.............................................................................................
h 2 127M...........................................................................................................................................................................................
h 4 255M......................
L 1 39M.................................................
L 2 83M...............................................................................................
L 4 163
Il valore 17 si spiega da primi esperimenti. Come possiamo vedere, le dimensioni aumentano in modo quasi lineare.
Modificare il codice per verificare l'influenza che si utilizza Longs, spetta a voi - Credo che si finirà con un fattore di 2.
So che ho già risposto diverse volte ma non riesco nemmeno a trovare i miei post per questo. Ecco la versione molto breve e incompleta per l'hotspot: Ogni oggetto ha 2 parole in testa e 8 byte allineati. gli array hanno un 4 byte aggiuntivo per la dimensione. Le dimensioni di riferimento dipendono da JVM bitness, ma esistono oops compressi per heap <32 gb su sistemi a 64 bit. – Voo
Mi chiedo se visualvm potrebbe fare questo per te ... c'è un profiler di memoria, ma non l'ho mai usato. –
Non sono riuscito a trovare le risposte per questo = D Se riesci a trovare una delle tue vecchie risposte che copre questo sarebbe fantastico. –