HDFS简介

HDFS(全称:Hadoop Distribute File System)分布式文件系统,是Hadoop核心组成。

HDFS中的重要概念

分块存储

HDFS中的文件在物理上是分块存储的,块的大小可以通过配置参数来规定;Hadoop2.x版本默认的block大小是128M

命名空间

HDFS支持传统的层次性文件组织结构。用户或者应用程序可以创建目录,然后将文件保存在这些目录里。文件系统名字空间的层次结构和大多数现有的文件系统类似:用户可以创建、删除、移动或重命名这些文件。

NameNode负责维护文件系统的名字空间,任何对文件系统名字空间或属性的修改都被NameNode记录下来。

NameNode元数据

我们把目录结构及文件分块位置信息叫做元数据。NameNode的元数据记录每一个文件对应的block信息。

DataNode数据存储

文件的各个block的具体存储管理由DataNode负责。一个block会有多个DataNode来存储,DataNode会定时向NameNode来汇报自己持有的block信息。

副本机制

为了容错,文件的所有block都会有副本。每隔文件的block大小和副本数都是可配置的。副本数默认是3个。

一次写入,多次读出

HDFS是设计成适应一次写入,多次读出的场景,且不支持文件的随机修改。正因为如此,HDFS适合用来做大数据分析的底层存储服务,而不适合做网盘等应用。(修改不方便,延迟大)

HDFS架构

  • NameNode:Hdfs集群的管理者

    • 维护管理Hdfs的名称空间
    • 维护副本策略
    • 记录文件块的映射关系
    • 负责处理客户端读写请求
  • DataNode:NameNode下达命令,DataNode执行实际操作

    • 保存实际的数据块
    • 负责数据块的读写
  • Client:客户端

    • 上传文件到HDFS的时候,Client负责将文件切分成Block,然后进行上传
    • 请求NameNode交互,获取文件的位置信息
    • 读取或写入文件,与DataNode交互
    • Client可以使用一些命令来管理HDFS或者访问HDFS

写数据流程:

HDFS客户端操作

Shell客户端

  1. 查看所有命令
hadoop fs

  1. 查看命令帮助
#查看rm的帮助信息
hadoop fs -help rm
  1. 显示目录信息
hadoop fs -ls /
  1. 创建目录
hadoop fs -mkdir -p /test/data
  1. 从本地剪切到HDFS
hadoop fs -moveFromLocal ./word.txt /test/data
  1. 追加文件内容到指定文件
 hadoop fs -appendToFile test.txt /test/data/word.txt
  1. 显示文件内容
hadoop fs -cat /test/data/word.txt
  1. 修改文件所属权限
hadoop fs -chmod 666 /test/data/word.txt
 hadoop fs -chown root:root /test/data/word.txt
  1. 从本地文件系统拷贝文件到HDFS路径去
hadoop fs -copyFromLocal test.txt /test
  1. 从HDFS拷贝到本地
hadoop fs -copyToLocal /test/data/word.txt /opt
  1. 从HDFS的一个路径拷贝到HDFS的另一个路径
hadoop fs -cp /test/data/word.txt /test/input/t.txt
  1. 在HDFS目录中移动文件
hadoop fs -mv /test/input/t.txt /
  1. 从HDFS中下载文件,等同于copyToLocal
hadoop fs -get /t.txt ./
  1. 从本地上传文件到HDFS,等同于copyFromLocal
hadoop fs -put ./yarn.txt /user/root/test/
  1. 显示一个文件的末尾
hadoop fs -tail /t.txt
  1. 删除文件或文件夹
hadoop fs -rm /t.txt
  1. 删除空目录
hadoop fs -rmdir /test
  1. 统计文件夹的大小信息
hadoop fs -du -s -h /test
hadoop fs -du -h /test

  1. 设置HDFS的副本数量
hadoop fs -setrep 10 /lagou/bigdata/hadoop.txt

注意:这里设置的副本数只是记录在NameNode的元数据中,是否真的会有这么多副本,还得看DataNode的数量。因为目前只有3台设备,最多也就3个副本,只有节点数的增加到10台时,副本数才能达到10.

Java客户端

环境准备

  1. 将Hadoop安装包解压到非中文路径
  2. 配置环境变量

  3. 依赖导入
<dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-common</artifactId>
    <version>${hadoop-version}</version>
</dependency>
<dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-client</artifactId>
    <version>${hadoop-version}</version>
</dependency>
<dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-hdfs</artifactId>
    <version>${hadoop-version}</version>
</dependency>
  1. 配置文件(可选步骤)

将hdfs-site.xml(内容如下)拷贝到项目的resources下

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

参数优先级排序:(1)代码中设置的值 >(2)用户自定义配置文件 >(3)服务器的默认配置

HDFS Java API

  1. 上传文件
@Test
    public void testCopyFromLocalFile() throws Exception{
        Configuration conf = new Configuration();
        FileSystem fs=FileSystem.get(new URI("hdfs://192.168.56.103:9000"),conf,"root");
        fs.copyFromLocalFile(new Path("e://aa.txt"),new Path("/cc.txt"));
        fs.close();
    }

为了方便,下面的示例就隐藏构建FileSystem的过程

  1. 下载文件
 @Test
    public void testCopyToLocalFile() throws Exception{
     fs.copyToLocalFile(false,new Path("/aa.txt"),new Path("e://cd.txt"),true);
    }
  1. 删除文件
@Test
  public void testDelete() throws Exception{
      fs.delete(new Path("/aa.txt"),true);
  }
  1. 查看文件名称、权限、长度、块信息等
public void testList() throws IOException {
        RemoteIterator<LocatedFileStatus> listFiles = fs.listFiles(new Path("/"), true);
        while (listFiles.hasNext()){
            LocatedFileStatus status = listFiles.next();
            //文件名称
            System.out.println(status.getPath().getName());
            System.out.println(status.getLen());
            System.out.println(status.getPermission());
            System.out.println(status.getGroup());

            BlockLocation[] blockLocations = status.getBlockLocations();
            Stream.of(blockLocations).forEach(
                    block->{
                        String[] hosts = new String[0];
                        try {
                            hosts = block.getHosts();
                        } catch (IOException e) {
                            e.printStackTrace();
                        }
                        System.out.println(Arrays.asList(hosts));
                    }
            );
            System.out.println("-----------华丽的分割线----------");
        }
    }
  1. 文件夹判断
@Test
    public void testListStatus() throws IOException {
        FileStatus[] fileStatuses = fs.listStatus(new Path("/"));
        Stream.of(fileStatuses).forEach(fileStatus -> {
            String name = fileStatus.isFile() ? "文件:" + fileStatus.getPath().getName() : "文件夹:"+fileStatus.getPath().getName();
            System.out.println(name);
        });
    }
  1. 通过I/O流操作HDFS
  • IO流上传文件
@Test
    public void testIOUpload() throws IOException {
        FileInputStream fis = new FileInputStream(new File("e://11.txt"));
        FSDataOutputStream fos = fs.create(new Path("/io_upload.txt"));
        IOUtils.copyBytes(fis,fos,new Configuration());

        IOUtils.closeStream(fis);
        IOUtils.closeStream(fos);
    }
  • IO流下载文件
@Test
    public void testDownload() throws IOException{
        FSDataInputStream fis = fs.open(new Path("/io_upload.txt"));
        FileOutputStream fos = new FileOutputStream(new File("e://11_copy.txt"));
        IOUtils.copyBytes(fis,fos,new Configuration());

        IOUtils.closeStream(fis);
        IOUtils.closeStream(fos);

    }
  1. seek定位读取
@Test
    public void readFileSeek() throws IOException{
        FSDataInputStream fis = fs.open(new Path("/io_upload.txt"));
        IOUtils.copyBytes(fis,System.out,1024,false);
        //从头再次读取
        fis.seek(0);
        IOUtils.copyBytes(fis,System.out,1024,false);

        IOUtils.closeStream(fis);
    }

HDFS文件权限问题

HDFS的文件权限和linux系统的文件权限机制类似。如果在linux系统中root用户使用hadoop命令创建了一个文件,那么该文件的owner就是root。

当出现权限问题时,解决方法有如下几种:

  • 获取FileSystem对象时指定有权限的用户
  • 关闭HDFS权限校验,修改hdfs-site.xml
#添加如下属性
<property>
    <name>dfs.permissions</name>
    <value>true</value>
</property>
  • 直接修改HDFS的文件或目录权限为777,允许所有用户操作
hadoop fs -chmod -R 777 /

标签智能推荐:

vivo 万台规模 HDFS 集群升级 HDFS 3.x 实践

ve节点停止CMDN,启动AmbariDN。HDFS升级的同时实现管理工具从CM切换到Ambari。五、HDFS滚动升级降级过程中遇到的问题5.1HDFS社区已修复的不兼容问题HDFS社区已修复滚动升级、降级过程中关键不兼容的问题。相关issue号为:HDFS-13596、&nbsp;HDFS-14396、&nbsp;HDFS-14831。【HDFS-13596】:&nbsp;修复ActiveNa

Python数据分析与数据挖掘

第一阶段:基础入门第一章:第二章:第三章:第四章:第二阶段:数理图形第五章:第六章:第七章:第八章:第三阶段:算法模型第九章:

GIT分布式版本控制器的前后今生

Git的入门与安装&nbsp;GIT基础操作GIT的分支应用&nbsp;GITLAB应用gitlab与pycharm应用GITHUB使用

Python_QT_量化投资/量化交易 基础入门

量化投资/量化交易基础入门课https://www.bilibili.com/video/BV1n4411q7ic?from=search&amp;seid=11272321085744763987一、量化投资实现必备知识1.&nbsp;&nbsp;

导航

python环境搭建python入门python基础python函数python模块python开发规范python面向对象python网络编程数据库mysql前端django框架django-Ajax的使用

笔记整理

刷题记录我的资源C++/Java算法模板JS基础【未完成】大佬笔记前端[转载大佬高质量笔记]ES6-ES11笔记整理阮一峰ES6入门笔记HTML笔记CSS基础HTML5与CSS3

音视频技术入门——音频处理

音视频技术入门——音频处理https://zhuanlan.zhihu.com/p/248659886音视频技术基础(一)--音视频技术概念基础https://cloud.tencent.com/developer/article/1645786?from=article.detail.1659232

Python - dict 字典常见方法

':'Python入门基础','author':'张三','press':'机械工业出版社'}print(book.get("title"))print(book.get("books"))print(book.get("books","默认值"))#输出结果Python入门基础None默认值clear()作用清空字典所有键值对栗子#clearbook={'title':'Python入门基础',

Hadoop框架:HDFS高可用环境配置

tHub·点这里GitEE·点这里☆☆☆☆☆02Java基础、并发、面向对象、Web开发GitHub·点这里GitEE·点这里☆☆☆☆03SpringCloud微服务基础组件案例详解GitHub·点这里GitEE·点这里☆☆☆04SpringCloud微服务架构实战综合案例GitHub·点这里GitEE·点这里☆☆☆☆☆05SpringBoot框架基础应用入门到进阶GitHub·点这里GitEE·

hadoop框架

大数据概念:hadoop特点:1大量2高速3多样4低价值密度hadoop是什么&nbsp;Hadoop三大发行版本:Apache、Cloudera、Hortonworks。Apache版本最原始(最基础)的版本,对于入门学习最好。Cloudera在大型互联网企业中用的较多。Hortonworks文档较好。hadoop的优势:hadoop组成:HDFS架构概述yarn架构概述&nbsp;MapRed