>>分享SPSS,Hadoop等大数据处理技术,以及分布式架构以及集群系统的构建 书籍支持  卫琴直播  品书摘要  在线测试  资源下载  联系我们
发表一个新主题 开启一个新投票 回复文章 您是本文章第 20624 个阅读者 刷新本主题
 * 贴子主题:  Hadoop安装过程 回复文章 点赞(0)  收藏  
作者:javathinker    发表时间:2020-03-11 23:43:49     消息  查看  搜索  好友  复制  引用

  

一、安装Hadoop

1.先解压hadoop到相关的文件夹中

点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小

2.进入到解压好的文件夹以后,对相关文件进行修改

点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小

     点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小

3.配置hadoop-env.sh

vi hadoop-env.sh:
export= JAVA_HOME=/opt/inst/jdk181

  点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小

4.配置core-site.xml

vi core-site.xml

         <property>
                <name>fs.defaultFS</name>
                <value>hdfs://bigdata:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/opt/hadoopdata</value>
        </property>
        <property>
                <name>hadoop.proxyuser.root.users</name>
                <value>*</value>
        </property>
        <property>
                <name>hadoop.proxyuser.root.groups</name>
                <value>*</value>
        </property>

  点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小

     点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小

5.配置hdfs-site.xml

vi hdfs-site.xml

         <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>

  点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小

6.配置cp mapred-site.xml.template mapred-site.xml

cp mapred-site.xml.template mapred-site.xml

  点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小

7.vi mapred-site.xml

         <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>

  点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小

8.vi yarn-site.xml

vi

  点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小

9.vi /etc/profile

export HADOOP_HOME=/opt/bigdata/hadoop260
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME

  点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小

10.更新并格式化

source  /etc/profile
hdfs namenode -format

   点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小

11.启动

start-all.sh

  点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小    

jps
#查看进程

  点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小

     点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小

12.把linux导入到hadoop中

hdfs dfs -put /opt/a.txt  /cm/
hdfs dfs -ls /cm

  点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小

Hadoop理解

三大核心

1.HDFS: Hadoop Distribute  File System 分布式文件系统

?           NameNode:主节点,目录

     ?           DataNode:从节点,数据

     ?           SecondaryNameNode:主节点的备份

2.YARN:Yet Another Resource Negotiator  资源管理调度系统

?               调度的是内存的资源和CPU的算力

     ?           通过ResourceManager(只有一个) 来调度

     ?           ResourceManager主要作用:

     ?                   1.处理客户端请求

     ?                   2.监控NodeManager

     ?                   3.启动或监控ApplicationMaster()

     ?                   4.资源的分配或调度

     ?           NodeManager(多个)

     ?           NodeManager主要作用:

     ?                   1.管理单个节点上的资源

     ?                   2.处理来自ResourceManager的命令

     ?                   3.处理来自ApplicationMaster的命令                  

3.MapReduce:分布式运算框架

?           运算的

     点击在新窗口中浏览原图
CTRL+鼠标滚轮放大或缩小



----------------------------
原文链接:https://blog.51cto.com/14522074/2434368

程序猿的技术大观园:www.javathinker.net



[这个贴子最后由 flybird 在 2020-03-13 11:32:19 重新编辑]
  Java面向对象编程-->Java注解
  JavaWeb开发-->JavaWeb应用入门(Ⅱ)
  JSP与Hibernate开发-->域对象在持久化层的四种状态
  Java网络编程-->通过JDBC API访问数据库
  精通Spring-->创建综合购物网站应用
  Vue3开发-->通过Vuex进行状态管理
  一套可复用的方法论!从0-1搭建数据团队,看这篇就够了
  Spark批量读取Redis数据-Pipeline(Scala)
  flume+spark streaming+redis完整篇
  spark读取kafka后写入redis
  基于spark-streaming实时推荐系统
  kubernetes之Ingress部署
  Spark on Yarn with Hive实战案例与常见问题解决
  SparkStreaming的实战案例-WordCount范例
  Spark Thrift JDBCServer应用场景解析与实战案例
  Hadoop入门——初识Hadoop
  SDN网络IPv6组播机制支持实时视频业务海量用户扩展
  如何设计实时数据平台(设计篇)-wx5c2da66615f74的博客
  Zookeeper+Kafka集群搭建
  大数据采集、清洗、处理:使用MapReduce进行离线数据分析完整...
  大数据系统发展的技术路线
  更多...
 IPIP: 已设置保密
楼主      
1页 0条记录 当前第1
发表一个新主题 开启一个新投票 回复文章


中文版权所有: JavaThinker技术网站 Copyright 2016-2026 沪ICP备16029593号-2
荟萃Java程序员智慧的结晶,分享交流Java前沿技术。  联系我们
如有技术文章涉及侵权,请与本站管理员联系。