CentOS 7.4 下 Hadoop 3.0 單機安裝教程
Apache Hadoop 是一個開源的分布式計算框架,廣泛應用於大數據處理。本文將介紹如何在 CentOS 7.4 上進行 Hadoop 3.0 的單機安裝,幫助用戶快速上手大數據技術。
前期準備
在開始安裝之前,請確保您的系統已經安裝了 Java。Hadoop 需要 Java 環境來運行,建議使用 JDK 1.8 版本。您可以通過以下命令檢查 Java 是否已安裝:
java -version如果未安裝 Java,您可以使用以下命令進行安裝:
sudo yum install java-1.8.0-openjdk-devel下載 Hadoop
接下來,您需要下載 Hadoop 3.0 的安裝包。可以從 Apache 的官方網站下載最新版本:
wget https://downloads.apache.org/hadoop/common/hadoop-3.0.0/hadoop-3.0.0.tar.gz下載完成後,解壓縮安裝包:
tar -xzvf hadoop-3.0.0.tar.gz然後將解壓縮的文件夾移動到 /usr/local 目錄下:
sudo mv hadoop-3.0.0 /usr/local/hadoop配置環境變量
為了方便使用 Hadoop,您需要配置環境變量。編輯 ~/.bashrc 文件:
nano ~/.bashrc在文件末尾添加以下內容:
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk保存並退出編輯器,然後執行以下命令使變更生效:
source ~/.bashrc配置 Hadoop
接下來,您需要配置 Hadoop 的核心配置文件。編輯 core-site.xml 文件:
nano $HADOOP_HOME/etc/hadoop/core-site.xml在文件中添加以下配置:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>然後編輯 hdfs-site.xml 文件:
nano $HADOOP_HOME/etc/hadoop/hdfs-site.xml添加以下配置:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>格式化 HDFS
在啟動 Hadoop 之前,您需要格式化 HDFS。執行以下命令:
hdfs namenode -format啟動 Hadoop
現在可以啟動 Hadoop 了。首先啟動 HDFS:
start-dfs.sh然後啟動 YARN:
start-yarn.sh驗證安裝
您可以通過訪問 Hadoop 的 Web 界面來驗證安裝是否成功。打開瀏覽器,輸入以下地址:
http://localhost:9870如果您能看到 Hadoop 的主頁,則表示安裝成功。
總結
本文介紹了如何在 CentOS 7.4 上進行 Hadoop 3.0 的單機安裝。通過這些步驟,您可以快速搭建一個大數據處理環境,為後續的數據分析和處理打下基礎。如果您需要更高效的運行環境,可以考慮使用 香港VPS 服務,這將為您的大數據項目提供穩定的支持。