<span id="mktg5"></span>

<i id="mktg5"><meter id="mktg5"></meter></i>

        <label id="mktg5"><meter id="mktg5"></meter></label>
        最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
        問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
        當前位置: 首頁 - 科技 - 知識百科 - 正文

        Hadoop2.2.0+Spark0.9.0分布式搭建

        來源:懂視網 責編:小采 時間:2020-11-09 15:50:42
        文檔

        Hadoop2.2.0+Spark0.9.0分布式搭建

        Hadoop2.2.0+Spark0.9.0分布式搭建:軟件版本 JDK:jdk-7u45-linux-x64.tar Spark:spark-0.9.0-incubating-bin-hadoop2.tgz Scala:scala-2.10.3.tgz Hadoop:hadoop-2.2.0_x64.tar.gz 集群狀況 adai1: Master/NameNode/ResourceManager/S
        推薦度:
        導讀Hadoop2.2.0+Spark0.9.0分布式搭建:軟件版本 JDK:jdk-7u45-linux-x64.tar Spark:spark-0.9.0-incubating-bin-hadoop2.tgz Scala:scala-2.10.3.tgz Hadoop:hadoop-2.2.0_x64.tar.gz 集群狀況 adai1: Master/NameNode/ResourceManager/S

        軟件版本 JDK:jdk-7u45-linux-x64.tar Spark:spark-0.9.0-incubating-bin-hadoop2.tgz Scala:scala-2.10.3.tgz Hadoop:hadoop-2.2.0_x64.tar.gz 集群狀況 adai1: Master/NameNode/ResourceManager/SecondaryNameNode adai2: Worker/DataNode/NodeManager


        軟件版本

        JDK:jdk-7u45-linux-x64.tar

        Spark:spark-0.9.0-incubating-bin-hadoop2.tgz

        Scala:scala-2.10.3.tgz

        Hadoop:hadoop-2.2.0_x64.tar.gz

        集群狀況

        adai1: Master/NameNode/ResourceManager/SecondaryNameNode

        adai2: Worker/DataNode/NodeManager

        adai3: Worker/DataNode/NodeManager

        JDK安裝

        解壓縮:

        tar -jdk-7u45-linux-x64.tar

        將文件夾移動到/usr/lib文件夾下

        sudo mv jdk1.7.0_45 /usr/lib/

        設置環境變量

        sudo vi /etc/profile

        在最后添加上

        #set java environment

        export JAVA_HOME=/usr/lib/jdk1.7.0_45

        export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

        export PATH=$PATH:$JAVA_HOME/bin

        export JRE_HOME=$JAVA_HOME/jre

        讓環境變量生效

        source /etc/profile

        查看版本信息

        java –version

        Hosts設置

        sudo vi /etc/hosts

        127.0.0.1 localhost

        192.168.1.11 adai1

        192.168.1.12 adai2

        192.168.1.13 adai3

        將hosts文件復制到其他節點上

        scp /etc/hosts adai@192.168.1.12:/etc/hosts

        scp /etc/hosts adai@192.168.1.13:/etc/hosts

        SSH無密碼登錄

        adai1機無密碼登錄adai2機 在adai1機上

        sudo get-apt install ssh

        ssh-keygen -t rsa (用rsa生成密鑰)

        cd ~/.ssh (進入用戶目錄下的隱藏文件.ssh)

        cat id_rsa.pub >> authorized_keys (將id_rsa.pub加到授權的key里面去,這步執行完,應該sshlocalhost可以無密碼登錄本機了,可能第一次要密碼)

        scp ~/.ssh/id_rsa.pub adai@adai2:~/ (把adai1機下的id_rsa.pub復制到adai2機下)

        adai2機上

        cat ~/id_rsa.pub >> ~/.ssh/authorized_keys (adai2機把從adai1機復制的id_rsa.pub添加到.ssh/authorzied_keys文件里)

        chmod 600 .ssh/authorized_keys (此處權限必須為600)

        再配置adai1機無密碼登錄adai3機

        Hadoop配置

        hadoop2.2.0 64位機器版本需要自己編譯,網上可以下載到其他人編譯好的

        解壓縮

        tar -zxvf hadoop-2.2.0_x64.tar.gz

        移動文件夾到/opt/目錄下

        sudo mv hadoop-2.2.0/ /opt/

        設置環境變量

        sudo vi /etc/profile

        添加

        export HADOOP_HOME=/opt/hadoop-2.2.0

        export PATH=$PATH:$HADOOP_HOME/bin

        export YARN_HOME=/opt/hadoop-2.2.0

        export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

        export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop

        讓環境變量生效

        source /etc/profile

        進入/opt/hadoop-2.2.0/etc/hadoop/目錄,修改配置文件

        vihadoop-env.sh

        export JAVA_HOME=/usr/lib/jdk1.7.0_45

        export HADOOP_HOME=/opt/hadoop-2.2.0

        export PATH=$PATH:$HADOOP_HOME/bin

        vicore-site.xml

        fs.defaultFS

        hdfs://adai1:9000

        io.file.buffer.size

        131072

        hadoop.tmp.dir

        file:/opt/hadoop-2.2.0/tmp_hadoop

        Abase forother temporary directories.

        hadoop.proxyuser.adai.hosts

        *

        hadoop.proxyuser.adai.groups

        *

        將mapred-site.xml.templat模板文件重命名

        mv mapred-site.xml.templat mapred-site.xml

        vi mapred-site.xml

        mapreduce.framework.name

        yarn

        mapreduce.jobhistory.address

        adai1:10020

        mapreduce.jobhistory.webapp.address

        adai1:19888

        vi hdfs-site.xml

        dfs.namenode.secondary.http-address

        adai1:9001

        dfs.namenode.name.dir

        file:/opt/hadoop-2.2.0/dfs/name

        dfs.datanode.data.dir

        file:/opt/hadoop-2.2.0/dfs/data

        dfs.replication

        2

        dfs.webhdfs.enabled

        true

        vi yarn-site.xml

        yarn.nodemanager.aux-services

        mapreduce_shuffle

        yarn.nodemanager.aux-services.mapreduce.shuffle.class

        org.apache.hadoop.mapred.ShuffleHandler

        yarn.resourcemanager.address

        adai1:8032

        yarn.resourcemanager.scheduler.address

        adai1:8030

        yarn.resourcemanager.resource-tracker.address

        adai1:8031

        yarn.resourcemanager.admin.address

        adai1:8033

        yarn.resourcemanager.webapp.address

        adai1:8088

        vi slaves

        adai2

        adai3

        將配置文件拷貝到其他節點上

        格式化

        bin/hadoop namenode –format

        啟動hadoop

        sbin/start-all.sh

        jps查看集群情況

        Scala安裝

        解壓縮

        tar -zxvf scala-2.10.3.tgz

        移動到/usr/lib文件夾下

        sudo mv scala-2.10.3 /usr/lib/

        設置環境變量

        sudo vi /etc/profile

        在后面增加內容

        export SCALA_HOME=/usr/lib/scala-2.10.3

        export PATH=$PATH:$SCALA_HOME/bin

        配置文件拷貝到其他節點上,讓環境變量生效

        source /etc/profile

        查看版本信息

        scala –version

        Spark配置

        解壓縮

        tar –zxvf spark-0.9.0-incubating-bin-hadoop2.tgz

        移動到opt文件夾下

        sudo mv spark-0.9.0-incubating-bin-hadoop2/ /opt/spark

        修改環境變量

        vi /etc/profile

        后面增加內容

        export SPARK_HOME=/opt/spark

        export PATH=$PATH:$SPARK_HOME/bin

        讓環境變量生效

        source /etc/profile

        到conf文件夾下修改配置文件

        mv spark-env.sh.templatespark-env.sh

        vi spark-env.sh

        export SCALA_HOME=/usr/lib/scala-2.10.3

        export JAVA_HOME=/usr/lib/jdk1.7.0_45

        export SPARK_MASTER_IP=192.168.1.11

        export HADOOP_HOME=/opt/hadoop-2.2.0

        export SPARK_HOME=/opt/spark

        export SPARK_LIBRARY_PATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$HADOOP_HOME/lib/native

        export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop/

        vi slaves

        adai2

        adai3

        將配置文件拷貝到其他節點上

        在Master上執行

        sbin/start-all.sh

        運行Spark自帶的例子

        ./bin/run-exampleorg.apache.spark.examples.SparkPi spark://192.168.1.11:7077

        聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

        文檔

        Hadoop2.2.0+Spark0.9.0分布式搭建

        Hadoop2.2.0+Spark0.9.0分布式搭建:軟件版本 JDK:jdk-7u45-linux-x64.tar Spark:spark-0.9.0-incubating-bin-hadoop2.tgz Scala:scala-2.10.3.tgz Hadoop:hadoop-2.2.0_x64.tar.gz 集群狀況 adai1: Master/NameNode/ResourceManager/S
        推薦度:
        標簽: 搭建 分布式 spark
        • 熱門焦點

        最新推薦

        猜你喜歡

        熱門推薦

        專題
        Top
        主站蜘蛛池模板: 67pao强力打造67194在线午夜亚洲| 亚洲人成电影在线观看青青| 日本亚洲色大成网站www久久| 在线美女免费观看网站h| 亚洲综合伊人久久综合| 中文在线免费视频| 久久精品国产亚洲av成人| 男女作爱在线播放免费网站| 久久夜色精品国产嚕嚕亚洲av| 韩日电影在线播放免费版| 久久亚洲国产欧洲精品一| 久久精品乱子伦免费| 337p欧洲亚洲大胆艺术| 美女被cao免费看在线看网站| 最新国产精品亚洲| 又粗又硬又大又爽免费视频播放| 曰批免费视频播放在线看片二| 深夜国产福利99亚洲视频| 男女拍拍拍免费视频网站| 亚洲免费视频网站| 毛片a级毛片免费播放下载| 国产精品国产亚洲区艳妇糸列短篇 | 亚洲精品国产综合久久一线| a级毛片高清免费视频就| 亚洲日本中文字幕区| 97在线线免费观看视频在线观看| 亚洲偷自拍另类图片二区| 亚洲成a人片在线观看国产| 免费无码又爽又刺激网站直播 | 午夜成人免费视频| xxxxx做受大片视频免费| 亚洲av日韩av高潮潮喷无码| 在线v片免费观看视频| 黄色免费在线网址| 久久亚洲私人国产精品vA | 亚洲处破女AV日韩精品| 在线精品一卡乱码免费| 免费国产污网站在线观看不要卡| 亚洲av无码国产精品夜色午夜 | 最近免费中文在线视频| 美女羞羞喷液视频免费|