今天在本地起个pyspark
发现总是遇到
1
|
|
尝试了设置 SPARK_HOME
, HADOOP_HOME
等变量之后,依然不起作用。
最后发现是要修改 SPARK_HOME
里面的配置文件spark-env.sh
1 2 |
|
并且在/etc/hosts
文件中,加入如下的内容:
1
|
|
Bingo!!!
今天在本地起个pyspark
发现总是遇到
1
|
|
尝试了设置 SPARK_HOME
, HADOOP_HOME
等变量之后,依然不起作用。
最后发现是要修改 SPARK_HOME
里面的配置文件spark-env.sh
1 2 |
|
并且在/etc/hosts
文件中,加入如下的内容:
1
|
|
Bingo!!!