Come posso cambiare spark.driver.maxResultSize nella shell interattiva di pyspark? Ho usato il seguente codiceCome modificare le proprietà di SparkContext nella sessione Interactive PySpark
from pyspark import SparkConf, SparkContext
conf = (SparkConf()
.set("spark.driver.maxResultSize", "10g"))
sc.stop()
sc=SparkContext(conf)
ma mi dà l'errore
AttributeError: 'SparkConf' object has no attribute '_get_object_id'
Grazie, ho appena perso – MARK
Anch'io quando ho per prima cosa ho dato un'occhiata (sfortunatamente non riusciamo a fare lo stesso tipo di trucchi in Python che possiamo fare con Scala per renderlo difficile da abbinare all'API a meno che non aggiungiamo un codice veramente brutto). – Holden