在Ubuntu 20.04 LTS Focal Fossa上安装Apache Spark
步骤1.首先,通过apt
在终端中运行以下以下命令,确保所有系统软件包都是最新的。
sudo apt update
sudo apt upgrade
步骤2.安装Java。
Apache Spark需要Java才能运行,确保我们在Ubuntu系统上安装了Java:
sudo apt install default-jdk
我们通过以下命令行签出Java版本:
java -version
步骤3.下载并安装Apache Spark。
从下载页面下载最新版本的Apache Spark :
wget https://www.apache.org/dyn/closer.lua/spark/spark-3.0.0/spark-3.0.0-bin-hadoop2.7.tgz tar xvzf spark-3.0.0-bin-hadoop2.7.tgz sudo mv spark-3.0.0-bin-hadoop2.7/ /opt/spark
接下来,配置Apache Spark环境:
nano ~/.bashrc
接下来,将这些行添加到.bashrc文件的末尾,以便该路径可以包含Spark可执行文件路径:
export SPARK_HOME=/opt/spark export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
激活更改:
source ~/.bashrc
步骤4.启动独立Spark Master服务器。
既然您已经完成了Spark的环境配置,就可以启动主服务器了:
start-master.sh
要查看Spark Web用户界面,请打开Web浏览器并在端口8080上输入localhost IP地址:
http://127.0.0.1:8080/
在这种单服务器独立设置中,我们将与主服务器一起启动一个从服务器。该命令用于启动Spark Worker进程:start-slave.sh
start-slave.sh spark://ubuntu1:7077
现在工作人员已经启动并正在运行,如果您重新加载Spark Master的Web UI,您应该在列表上看到它:
之后,完成配置并启动主服务器和从属服务器,测试Spark Shell是否工作:
spark-shell
恭喜你!您已经成功安装了Apache Spark。感谢您使用本教程在Ubuntu 20.04(Focal Fossa)系统上安装Apache Spark。有关其他帮助或有用信息,我们建议您检查Apache Spark官方网站。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun41434.html