Il mio progetto ha unit test per le diverse configurazioni HiveContext (a volte si trovano in un unico file in cui sono raggruppati per funzioni.)In Apache Spark SQL, come chiudere il collegamento metastore da HiveContext
Dopo l'aggiornamento a Spark 1.4 che incontro un sacco di 'java.sql.SQLException: un'altra istanza di Derby potrebbe aver già avviato i problemi del database, poiché una patch rende questi contesti incapaci di condividere lo stesso metastore. Dal momento che non è pulito per ripristinare lo stato di un singleton per ogni test. La mia unica opzione si riduce a "riciclare" ogni contesto terminando la precedente connessione metastore Derby. C'è un modo per fare questo?
Grazie mille! Fammi provare prima. – tribbloid