Ho ereditato un singolo progetto in svn: 30 Gb in oltre 300.000 file. Ci sono un sacco di file binari in gran parte in una cartella di immagini. Operazioni come l'aggiornamento dell'intero progetto possono essere drammaticamente lente.Best practice per un singolo progetto SVN di grandi dimensioni
Il team ha sviluppato un processo per eseguire solo l'aggiornamento/passaggio sulle cartelle specifiche su cui stanno lavorando e ha terminato il controllo del codice interrotto perché "funziona sul mio computer". La copia di lavoro di una persona può includere codice scaduto, codice commutato e codice "mai dimenticato". Inoltre, si verifica una ramificazione minima.
La mia soluzione personale è un piccolo check-out di bash/script di compilazione alle 5 del mattino ogni mattina, tuttavia non tutti hanno il coraggio della linea di comando di copiare anche la mia soluzione e preferiscono il comfort di svn tartaruga e il processo rotto.
Qualcuno ha provato a mettere a punto un repository così grande e può dare consigli? Esistono best practice che posso implementare per lavorare con repository di grandi dimensioni in cui posso semplificare tutti?
P.S. gli esterni non sembrano essere una buona idea e SVN optimizations to keep large repositories responsive non si applica qui perché mi occupo di un singolo progetto
P.P.S. Anche questo viene attualmente esaminato: http://www.ibm.com/developerworks/java/library/j-svnbins.html
hanno notizie su questo problema? Sto vivendo un problema simile sul nostro progetto. –