zepplin에서 spark을 테스트하다가 아래와 같은 에러를 만날 수 있다.
여러 spark context가 쓰인 이유인데, allowMultipleContext를 true로 설정하면 문제가 없다.
org.apache.spark.SparkException: Only one SparkContext may be running in this JVM (see SPARK-2243). To ignore this error, set spark.driver.allowMultipleContexts = true. The currently running SparkContext was created at:
문제 해결
val sparkConf = new SparkConf()
.setAppName("abc")
.set("spark.driver.allowMultipleContexts", "true");
'scala' 카테고리의 다른 글
[spark1.6] rdd를 dataframe으로 만드는 방법 (0) | 2017.02.14 |
---|---|
[spark] foreachPartition 예시 (0) | 2017.02.14 |
scala에서 uuid 생성하는 방법 (0) | 2017.02.09 |
[scala] spark에서 partition 줄이기 - repartition, coalesce (0) | 2017.02.08 |
[scala] List concatenation 리스트 결합 예시 (0) | 2017.01.11 |