2010-05-22 11 views
6

sono uno studente ricercatore. Sto cercando grandi dati per il problema dello zaino. Volevo testare il mio algoritmo per il problema dello zaino. Ma non sono riuscito a trovare grandi dati. Ho bisogno di dati con 1000 articoli e la capacità non importa. Il punto è che l'oggetto è tanto grande quanto è buono per il mio algoritmo. C'è qualche enorme dato disponibile su internet. Qualcuno sa per favore ragazzi ho bisogno di urgenza.grandi dati di test per il problema dello zaino

+0

http://www.random.org/ vi darà un mucchio di random gratuiti. Dovrai integrare i dati con NP-brute-force per ottenere la soluzione ottimale da testare. – msw

+0

@ user347918 ciao, so che questo è un post davvero vecchio, ma sto avendo lo stesso problema di dati che hai avuto, potresti dirmi come hai generato i tuoi dati? Ho trovato questo sito http://people.sc.fsu.edu/~jburkardt/datasets/knapsack_01/knapsack_01.html ma le dimensioni dei problemi sono molto ridotte. Spero che tu possa aiutare. Grazie. – RegUser

risposta

2

È possibile generare facilmente i propri dati. Basta usare un generatore di numeri casuali e generare molti e molti valori. Per verificare che il tuo algoritmo fornisca i risultati corretti, confrontalo con i risultati di un altro algoritmo di lavoro noto.

+0

hai ragione ma la cosa è che devo sapere la migliore soluzione. coz volevo sapere che il mio algoritmo può trovare la soluzione migliore o no! – user347918

+1

@ user347918: puoi trovare un algoritmo di lavoro esistente per dirti qual è la soluzione migliore e controllare se ottieni lo stesso. Forse prova 3 o 4 diversi algoritmi e assicurati che siano tutti d'accordo, nel caso in cui uno di loro abbia un bug. Puoi ad esempio provare alcune delle soluzioni qui: http://rosettacode.org/wiki/Knapsack_problem/Bounded –

+0

Grazie per la consulenza. Scusa un'altra domanda Se verificherò il problema dell'algoritmo multiknapsack. Non è diverso da singleknapsack giusto? Voglio dire, ho pensato che il problema abbia 100 temi e 5 zaini. Significa che posso pensare che il problema abbia 500 oggetti? Scusa, non incolpare, non ho esperienza Sono davvero un pessimo studente ricercatore :(. Sto solo iniziando adesso: – user347918

0

Ho lo stesso requisito.

Ovviamente solo la forza bruta darà la risposta ottimale e non funzionerà per problemi di grandi dimensioni.

Tuttavia siamo riusciti a piantare le nostre algoritmi uno contro l'altro ...

Per essere chiari, il mio algoritmo lavora per 0-1 problemi (cioè 0 oppure 1 di ciascun elemento), Integer o dati decimali.

Ho anche una versione che funziona per 2 dimensioni (ad es. Volume e Peso vs. Valore).

mio lettore di file utilizza un semplice formato CSV (voce-nome, il peso, il valore): miniera

X229257,9,286 
    X509192,11,272 
    X847469,5,184 
    X457095,4,88 
    etc.... 

Se ricordo bene, ho testato su 1000 articoli troppo.

Saluti.

PS:

ho eseguito il mio algoritmo di nuovo il problema sul codice Rosetta che Marco ha evidenziato (grazie). Ho ottenuto lo stesso risultato ma la mia soluzione è molto più scalabile rispetto alle soluzioni dinamiche di programmazione/LP e lavorerà su problemi molto più grandi

+1

L'editor ha visualizzato il mio formato di file in modo errato Il mio capo lettore si aspetta un articolo per riga. Attualmente ho il peso target hard-coded e lo cambierò a qualsiasi cosa tu stia utilizzando. –

+0

Hey man, Suona molto bene Puoi mandarmi i tuoi dati? Farò funzionare il mio algoritmo sui tuoi dati.Quindi confermerò i risultati. Sarebbe un bel lavoro. Grazie – user347918

+0

anche una cosa in realtà ho usato soluzioni LP. Ma non molto, diverso dagli altri quello che hanno fatto. Ho provato diversi problemi ogni volta che il mio metodo stava trovando la soluzione migliore. – user347918

Problemi correlati