hadoop-hdfs命令基本操作

python打印数据

# 1.首先导入库
import pandas as pd

# 2.读取数据 (../data/hotel_comment.csv这个是你数据文件的路径) (encoding="gbk"这个是编码)
df = pd.read_csv("../data/hotel_comment.csv", encoding="gbk")

# 3.打印数据 print是打印的意思 df是你读取到的数据赋值给df
print(df)
# 4.打印有多少个字段
print(df.info())

常用的HDFS命令选项

1.上传 -put
hdfs -dfs -put /根目录文件路径 /上传到hdfs路径
2.下载 -get
hdfs dfs -get /hdfs文件路径 /下载到根目录什么哪个链接
3.查看文件和目录 -ls (/是直接查全部或者后面可以指定文件路径)
hdfs dfs -ls /
4.新建 -mkdir 表示如果当前路径下不存在该目录(文件夹),则新建该目录(文件夹)
hdfs dfs -mkdir /文件名称或者目录名称
5.修改权限 -chmod 权限 777
hdfs dfs -chmod 777 /文件或者目录路径
6.查看数据内容 -cat:查看内容

​ | head -n 10 (打印十条数据)

hdfs dfs -cat /文件数据路径 | head -n 10
7.删除 -rm -r (多一个r是强制删除)
hdfs dfs -rm -r /文件或者目录或者文件数据
8.查看计算文本或目录大小 (要是不可以在**-du后面加一个-h**)
hdfs dfs -du /文件或者目录或者文件数据
9.移动文件或者目录
hdsf dfs -mv /想要移动的文件或者目录 /移动到哪个目录或者文件
10.以文本格式显示文件的内容
hdfs dfs -text /文件数据路径
11.显示文件末尾内容
hdfs dfs -ls /文件数据路径
12.统计文件和目录的数量
hdfs dfs -count /文件或者目录也可以直接/查看全部
13.设置文本的副本数
hdfs dfs -setrep 文本数量 /文件或者目录或者文本数据路径
14.在HDFS上创建一个空文件
hdfs dfs -touchz /文件名称
15.更改文件或目录的权限
hdfs dfs -chown 所有者名称 /被修改的文件或目录名称
16.更改文件或目录的所属组
hdfs dfs -chown 所有者名称 /被修改的文件或目录名称

HDFS常用命令用法

1. 列出指定路径下的文件和目录。

hdfs dfs -ls /user/hadoop

这将列出 /user/hadoop 目录下的文件和目录。

2. 将本地文件或目录上传到 HDFS。

hdfs dfs -put local_file.txt /user/hadoop/

这将把本地文件 local_file.txt 上传到 /user/hadoop/ 目录中。

3. 创建一个新的目录。

hdfs dfs -mkdir /user/hadoop/new_directory

这将把本地文件 local_file.txt 上传到 /user/hadoop/ 目录中。

4. 从 HDFS 下载文件或目录到本地文件系统。

hdfs dfs -get /user/hadoop/file.txt  local_directory/

这将从 HDFS 的 /user/hadoop/file.txt 下载文件,并将其保存到本地文件系统的 local_directory/ 目录中。

5. 删除 HDFS 中的文件或目录。

hdfs dfs -rm /user/hadoop/file.txt

这将删除 HDFS 中的 /user/hadoop/file.txt 文件。

6. 移动文件或目录。

hdfs dfs -cat /user/hadoop/file.txt

这将把 /user/hadoop/file.txt 移动到 /user/hadoop/new_location/

7. 显示文件的内容。

hdfs dfs -cat /user/hadoop/file.txt

这将显示 HDFS 中 /user/hadoop/file.txt 文件的内容。

8. 更改文件或目录的权限。

hdfs dfs -chmod 755 /user/hadoop/file.txt

这将把 /user/hadoop/file.txt 的权限更改为 755。

9. 计算文件或目录的大小。

hdfs dfs -du /user/hadoop/file.txt

将计算 /user/hadoop/file.txt 文件的大小。

10. 显示文件的末尾内容。

hdfs dfs -tail /user/hadoop/file.txt

这将显示 HDFS 中 /user/hadoop/file.txt 文件的末尾内容。

11. 以文本格式显示文件的内容。

hdfs dfs -text /user/hadoop/file.txt

这将以文本格式显示 HDFS 中 /user/hadoop/file.txt 文件的内容。

12. 统计文件和目录的数量。

hdfs dfs -count /user/hadoop/

这将统计 /user/hadoop/ 目录下的文件和目录的数量。

13. 设置文件的副本数。

hdfs dfs -setrep -w 3 /user/hadoop/file.txt

这将把 /user/hadoop/file.txt 文件的副本数设置为 3。

14. 在 HDFS 上创建一个空文件。

hdfs dfs -touchz /user/hadoop/empty_file.txt

这将在 HDFS 的 /user/hadoop/ 目录下创建一个名为 empty_file.txt 的空文件。

15. 更改文件或目录的所有者。

hdfs dfs -chown hadoop_user /user/hadoop/file.txt

这将把 /user/hadoop/file.txt 的所有者更改为 hadoop_user

16. 更改文件或目录的所属组。

hdfs dfs -chgrp hadoop_group /user/hadoop/file.txt

这将把 /user/hadoop/file.txt 的所属组更改为 hadoop_group