网创优客建站品牌官网
为成都网站建设公司企业提供高品质网站建设
热线:028-86922220
成都专业网站建设公司

定制建站费用3500元

符合中小企业对网站设计、功能常规化式的企业展示型网站建设

成都品牌网站建设

品牌网站建设费用6000元

本套餐主要针对企业品牌型网站、中高端设计、前端互动体验...

成都商城网站建设

商城网站建设费用8000元

商城网站建设因基本功能的需求不同费用上面也有很大的差别...

成都微信网站建设

手机微信网站建站3000元

手机微信网站开发、微信官网、微信商城网站...

建站知识

当前位置:首页 > 建站知识

HDFS垃圾回收站的配置及使用方法

本篇内容介绍了“HDFS垃圾回收站的配置及使用方法”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

创新互联是专业的丹徒网站建设公司,丹徒接单;提供网站制作、成都网站建设,网页设计,网站设计,建网站,PHP网站建设等专业做网站服务;采用PHP框架,可快速的进行丹徒网站开发网页制作和功能扩展;专业做搜索引擎喜爱的网站,专业的做网站团队,希望更多企业前来合作!

HDFS会为每一个用户创建一个回收站目录:/user/用户名/.Trash/,
每一个被用户通过Shell删除的文件/目录,在系统回收站中都一个周期,也就是当系统回收站中的文件/目录在一段时间之后没有被用户恢复的话,HDFS就会自动的把这个文件/目录彻底删除,之后,用户就永远也找不回这个文件/目录了。

1. HDFS默认会关闭回收站功能。默认情况下HDFS删除文件,无法恢复。
    [hadoop@hadoop002 hadoop]$ hdfs dfs -rm /gw_test.log2
    Deleted /gw_test.log2
2. 启用回收站功能,需要配置core-site.xml文件
    [hadoop@hadoop002 hadoop]$ vi etc/hadoop/core-site.xml 
    
    
    

    
    
    
    
    fs.defaultFS
    hdfs://hadoop002:9000
    

    
    
         fs.trash.checkpoint.interva
         0
    

    
    
          fs.trash.interval
         1440  -- 清除周期分钟(24小时)
    

    
    

    [hadoop@hadoop002 hadoop]
3. 重启hdfs服务
    #停止hdfs服务
    [hadoop@hadoop002 hadoop]$ sbin/stop-dfs.sh 
    Stopping namenodes on [hadoop002]
    hadoop002: no namenode to stop
    hadoop002: no datanode to stop
    Stopping secondary namenodes [hadoop002]
    hadoop002: no secondarynamenode to stop
    #启动hdfs服务
    [hadoop@hadoop002 hadoop]$ sbin/start-dfs.sh 
    Starting namenodes on [hadoop002]
    hadoop002: starting namenode, logging to /opt/software/hadoop-2.8.1/logs/hadoop-hadoop-namenode-hadoop002.out
    hadoop002: starting datanode, logging to /opt/software/hadoop-2.8.1/logs/hadoop-hadoop-datanode-hadoop002.out
    Starting secondary namenodes [hadoop002]
    hadoop002: starting secondarynamenode, logging to /opt/software/hadoop-2.8.1/logs/hadoop-hadoop-secondarynamenode-hadoop002.out
    [hadoop@hadoop002 hadoop]$
4. HDFS删除文件,删除的文件被存放在回收站下面;/user/hadoop/.Trash/Current
    #删除文件/gw_test.log3,
    [hadoop@hadoop002 hadoop]$ hdfs dfs -rm  /gw_test.log3
    18/05/25 15:27:47 INFO fs.TrashPolicyDefault: Moved: 'hdfs://hadoop002:9000/gw_test.log3' to trash at: hdfs://hadoop002:9000/user/hadoop/.Trash/Current/gw_test.log3
    #查看根目录下,gw_test.log3文件不存在
    [hadoop@hadoop002 hadoop]$ hdfs dfs -ls /
    Found 3 items
    drwxr-xr-x   - root   root                0 2018-05-23 13:16 /root
    drwx------   - hadoop supergroup          0 2018-05-22 11:23 /tmp
    drwxr-xr-x   - hadoop supergroup          0 2018-05-22 11:22 /user
    [hadoop@hadoop002 hadoop]$ 
    #查看回收站目录下的文件,
    [hadoop@hadoop002 hadoop]$ hdfs dfs -ls /user/hadoop/.Trash/Current
    Found 1 items
    -rw-r--r--   1 hadoop supergroup         25 2018-05-23 13:04 /user/hadoop/.Trash/Current/gw_test.log3

5. 恢复文件
    #恢复文件操作
    [hadoop@hadoop002 hadoop]$ hdfs dfs -mv /user/hadoop/.Trash/Current/gw_test.log3 /gw_test.log3
    #查看根目录下文件是否被恢复
    [hadoop@hadoop002 hadoop]$ hdfs dfs -ls /
    Found 4 items
    -rw-r--r--   1 hadoop supergroup         25 2018-05-23 13:04 /gw_test.log3
    drwxr-xr-x   - root   root                0 2018-05-23 13:16 /root
    drwx------   - hadoop supergroup          0 2018-05-22 11:23 /tmp
    drwxr-xr-x   - hadoop supergroup          0 2018-05-22 11:22 /user

6. 删除文件跳过回收站 
    #  -skipTrash参数表示跳过回收站
    [hadoop@hadoop002 hadoop]$ hdfs dfs -rm -skipTrash /gw_test.log3
    Deleted /gw_test.log3

“HDFS垃圾回收站的配置及使用方法”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注创新互联网站,小编将为大家输出更多高质量的实用文章!


本文名称:HDFS垃圾回收站的配置及使用方法
分享链接:http://bjjierui.cn/article/jshidh.html

其他资讯