导航:首页 > 文件类型 > linux中怎样把本地文件传到hdfs上

linux中怎样把本地文件传到hdfs上

发布时间:2024-03-27 07:06:44

A. 熟悉常用的 linux 操作和 Hadoop 操作

1.切换到当前目录的上一级目录
cd ..
2.切换到当前登录 Linux 系统的用户自己的主文件
cd ~
3.进入/tmp 目录,创建目录 a1/a2/a3/a4。
mkdir a1/a2/a3/a4 -p
4.删除目录
rmdir a
rmdir a1/a2/a3/a4 -p
5.cp 命令:复制文件或目录
(1) 将当前用户的主文件夹下的文件.bashrc 复制到目录“/usr”下,并重命名为 bashrc1
sudo cp .bashrc /usr/bashrc1
(2) 在目录“/tmp”下新建目录 test,再把这个目录复制到“/usr”目录下
cd /tmp
mkdir test
sudo cp /tmp/test /usr -r
6.mv 命令:移动文件与目录,或更名
(1) 将“/usr”目录下的文件 bashrc1 移动到“/usr/test”目录下
sudo mv /usr/bashrc1 /usr/test
(2) 将“/usr”目录下的 test 目录重命名为 test2
sudo mv /usr/test /usr/test2
7.rm 命令:移除文件或目录
(1) 将“/usr/test2”目录下的 bashrc1 文件删除
sudo rm /usr/test2/bashrc1
(2) 将“/usr”目录下的 test2 目录删除
sudo rm -rf /usr/test2
8.cat 命令:查看文件内容查看当前用户主文件夹下的.bashrc 文件内容
cat .bashrc
9.tac 命令:反向查看文件内容反向查看当前用户主文件夹下的.bashrc 文件的内容
tac .bashrc
10.more 命令:一页一页翻动查看翻页查看当前用户主文件夹下的.bashrc 文件的内容
more .bashrc
11.head 命令:取出前面几行
(1) 查看当前用户主文件夹下.bashrc 文件内容前 20 行
head -n20 .bashrc
(2)查看当前用户主文件夹下.bashrc 文件内容,后面 50 行不显示,只显示前面几行
head -n -50 .bashrc
12.tail 命令:取出后面几行
(1)查看当前用户主文件夹下.bashrc 文件内容最后 20 行
tail -n20 .bashrc
(2)查看当前用户主文件夹下.bashrc 文件内容,并且只列出 50 行以后的数据
tail -n -50 .bashrc
13.touch 命令:修改文件时间或创建新文件
(1) 在“/tmp”目录下创建一个空文件 hello,并查看文件时间
touch hello
stat hello
(2)修改 hello 文件,将文件时间整为 5 天前
touch -d "2019-3-26" hello
stat hello
14.chown 命令:修改文件所有者权限将 hello 文件所有者改为 root 帐号,并查看属性
sudo chown root hello
ls -l hello
15.find 命令:文件查找找出主文件夹下文件名为.bashrc 的文件
find .bashrc
16.tar 命令:压缩命令
(1) 在根目录“/”下新建文件夹 test,然后在根目录“/”下打包成 test.tar.gz
tar -zcvf test.tar.gz test/
(2) 把上面的 test.tar.gz 压缩包,解压缩到“/tmp”目录
tar -zxvf test.tar.gz
17.grep 命令:查找字符串从“~/.bashrc”文件中查找字符串'examples'
grep -rn "examples" .bashrc
18.使用 hadoop 用户登录 Linux 系统,启动 Hadoop(Hadoop 的安装目录为“/usr/local/hadoop”),为 hadoop 用户在 HDFS 中创建用户目录“/user/hadoop”
./bin/hadoop fs -mkdir -p /usr/hadoop
19.接着在 HDFS 的目录“/user/hadoop”下,创建 test 文件夹,并查看文件列表
./bin/hdfs dfs -mkdir test
./bin/hadoop fs -ls
20.将 Linux 系统本地的“~/.bashrc”文件上传到 HDFS 的 test 文件夹中,并查看 test

./bin/hadoop fs -put ~/.bashrc test

./bin/hadoop fs -ls test
21.将 HDFS 文件夹 test 复制到 Linux 系统本地文件系统的“/usr/local/hadoop”目录下

参考: 1

B. 如何向 hadoop 导入数据

如何向 hadoop 导入数据

1.2 使用Hadoop shell命令导入和导出数据到HDFS
实验准备
实例需要用到的数据-weblog_entries.txt
在namenode创建2个文件夹用来存放实验用的数据
mkdir /home/data 1
mkdir /home/data_download1
将肆搭weblog_entries.txt上传到namenode里的/home/data文件夹(我使用SecureFXPortable.exe 工具
注:以下命令都是在namenode节点运行的
实验过程
1.在HDFS中创建一个新的文件夹,用于保存weblog_entries.txt
hadoop fs -mkdir /data/weblogs1
2.将weblog_entries.txt文件从本地文件系统复制到HDFS刚创建的新文件夹下
cd /home/data1
hadoop fs -FromLocal weblog_entries.txt /data/weblogs1
3.列出HDFS上weblog_entries.txt文件的信息:
hadoop fs –ls /data/weblogs/weblog_entries.txt 1
4.将HDFS上的weblog_entries.txt文件复制到本地系统的当前文件夹下
cd /home/data_download1
hadoop fs -ToLocal /data/weblogs/weblog_entries.txt ./weblog_entries.txt 1
最后用 ls 命令检验下时候将weblog_entries.txt 下载到本地

如何向oracle 10g数据库导入数据

Oracle 11g数据导入到10g
一、在11g服务器上,使用expdp命令备份数据
11g 导出语句:EXPDP USERID='facial/facial@orcl as sysdba' schemas=facialdirectory=DATA_PUMP_DIR mpfile=test.dmp logfile=test.log version=10.2.0.1.0
二、在10g服务器上,使用impdp命令恢复数据
准备工作:1.建库2.建表空间3.建用户并授权4.将test.dmp拷贝到10g的dpmp目录下
--创建表空间
create tablespace TS_Facial datafile 'E:ORACLEPRODUCT10.2.0ORADATAORCLFacial.DBF' size 500M autoextend on next 50M;
--创建用户
create user Facial identified by Facial default tablespace TS_Facial;
--授权给用户
grant connect,resource,dba to Facial;
test.dmp 和 test.log 放在E:oracleproct10.2.0adminorcldpmp目录下
10g 导入语句:IMPDP USERID='facial/facial@orcl as sysdba' schemas=facialdirectory=DATA_PUMP_DIR mpfile=test.dmp logfile=test.log version=10.2.0.1.0

如何向mongodb分片集群裂顷拿导入数据

下载mongoDB(mongoDB下载地址),笔者使用的是mongoDB 2.0.4的Linux 64-bit版本
解压:tar xzf mongo.tgz
默认情况下,mongoDB将数据存储在/data/db目录下,但它不会自乎橡动创建该目录,所以我们需要手动创建它:
$ sudo mkdir -p /data/db/
$ sudo chown `id -u` /data/db
也可以使用--dbpath参数来指定别的数据库目录。
如果只是想在单机上测试一下mongoDB的话,非常简单,首先启动MongoDB server,
$ ./mongodb-xxxxxxx/bin/mongod
在另外一个终端,连接到我们启动的server:
$ ./mongodb-xxxxxxx/bin/mongo
> db.foo.save( { a : 1 } )
> db.foo.find()

如何向clementine12.0中导入数据库数据

在resources找到database节点连上去就可以,之后按照你的用户名和密码填好就可以,但是在之前要配置数据库。

如何向sql server2008中导入数据库

打开SQL Server Management Studio,在对象资源管理器中,展开“SQL Server 实例”→“数据库”→“MySchool”节点,单击鼠标右键,选择“任务”→“导出数据”命令。出现导入和导出向导的欢迎界面,单击“下一步”按钮,出现“选择数据源”对话框,如图
在“选择数据源”对话框中设置如下选项:
数据源:SQL Native Client 10.0。
服务器名称:DC。
身份验证:Windows身份验证。
数据库:MySchool。
单击“下一步”按钮,出现“选择目标”对话框,设置如下选项(如图所示):
目标:平面文件目标。
文件名:C:student.txt。
格式:带分隔符。
单击“下一步”按钮,出现“指定表复制或查询”对话框,如图所示。
在“指定表复制或查询”对话框中选中“复制一个或多个表或视图的数据”单选按钮,单击“下一步”按钮,出现“配置平面文件目标”对话框,如图所示。
设置源表或源视图为MySchool.dbo.student,单击“下一步”按钮。
在“保存并执行包”对话框中选中“立即执行”复选框,如图所示,然后单击“下一步”按钮。
在如图所示的对话框中单击“完成”按钮。
如图所示,当执行完后,单击“关闭”按钮。
8
在Windows资源管理器中打开C:student.txt文件,验证导出的结果。

如何导入数据

工具/原料
sql2008
方法/步骤
登录sql2008数据库,其实其他版本的数据库也是一样的原理
使用windows账户登录,登录成功之后打开资源管理器窗口
在数据库上单击右键,选择【新建数据库】
在弹出的新建数据库窗口中,输入数据库名字【test】然后点击确定
数据库【test】新建完成,在数据库上单击右键,选择【任务】【导入数据】
弹出导入数据向导,选择下一步
数据源选择【Excel】,文件路径选择我们需要导入的文件
目标数据库选择我们刚才新建的【test】数据库,其他保存默认不变,一直单击【下一步】
勾选我们需要导入的Excel表,如图所示,然后单击下一步,完成
开始导入数据,如图所示,成功导入,点击【关闭】
这样我们就导入了Excel中的数据

如何从linux向dbeaver导入数据

1、右击新建连接 2、选择Oracle 3、将要填的数据都填好了,下拉框选sid,点测试,通过就ok了 4、狂点下一步,最后完成。 注:无需安装oracle客户端。只有这个dbeaver就可以,只是需要个驱动包这个不用说。不会加驱动可以追问

如何从EXCEL向MATLAB导入数据

首先把excel文件放在work文件夹里,假设文件名为a.xls。
然后在matlab命令窗口输入a=xlsread('a.xls');
此时,a矩阵即为exel里对应的数据

使用Matlab中的Excel Link就可以了。
如果使用Excel 2003版本,操作如下:
1 打开Excel。
2 在菜单栏中选择工具→加载项→浏览。
3 在Matlab的安装目录下打开toolboxexlink文件夹,选择EXCLLINK.XLA,点击确认。
4 自动回到加载项对话框后,确保对话框中有“Excel
Link”,选中后点击确认按钮即可,菜单栏中自动添加了Matlab加载项。
5 使用其中的putmatrix,既可以将数据导入到Matlab中。
如果使用Excel 2007版本,操作如下:
1 打开Excel。
2 点击左上的office按钮→Excel选项→转到→加载项→浏览。
3 在Matlab的安装目录下打开toolboxexlink文件夹,选择EXCLLINK.XLA,点击确认。
4 自动回到加载项对话框后,确保对话框中有“ExcelLink”,选中后点击确认按钮即可,菜单栏中自动添加了Matlab加载项。
5 使用其中的putmatrix,既可以将数据导入到Matlab中。

C. 如何从linux的文件拷贝到另一台机器

1、首先从服务端文件到本地。比如服务器的home下有一个文件是a.txt,那么命令是:scp [email protected]:/home/a.txt /home,

D. 本地文件上传到Linux服务器的几种方法

常见有使用:scp命令、xshell软件里的xftp程序、U盘挂载、服务器自带的lrzsz程序。

一、scp使用说明:

1、把本机的文件传给目的服务器:


[email protected]:/super

备注:把本机get66.pcap拷贝到147这台服务器的super目录下,需要提供147的密码

2、在本机上执行scp,把远端的服务器文件拷贝到本机上:


[email protected]:/super/dns.pcap/

备注:在本机上执行scp,把远端服务器的dns.pcap文件拷贝到本机的根目录下

3、拷贝目录下的所有文件:


scp-r/super/[email protected]:/

备注:把/super/目录下的所有文件,拷贝到145服务器根目录下

二、xshell软件里的xftp程序:

xshell这个软件很好,强烈推荐哦!!!

里面有个xftp小插件,可以支持文件在笔记本和服务器互传,这个小插件需要单独在网上下载,直接网络搜xftp,很方便。

1、点击xshell软件上的xftp图标(前提xftp已经下载好)

四、服务器自带的lrzsz程序

现在大多数Linux服务器都带有lrzsz程序,方便上传下载文件,如果没有,可以直接下载rpm包安装下就好。

lrzsz安装包链接:http://down.51cto.com/data/2322755

1、rz(笔记本上传给服务器)

1

选择笔记本上文件传给服务器

2、sz(服务器上的文件拷贝给笔记本)

sz test.tar

把服务器的test.tar拷贝给笔记本。

E. 我用linux搭建hadoop集群,在本地我用eclipse向节点上传文件 但是文件没有上传到hdfs节点上

兄弟, hadoop的作用, 是做什么的啊, 我在网上找了资料,一直没有一找到合理的解释。你可以教我如何用hadoop吗?

阅读全文

与linux中怎样把本地文件传到hdfs上相关的资料

热点内容
宫斗文女主有心机有手段 浏览:422
大数据中学生 浏览:259
微信公众平台开放平台区别 浏览:679
微信发送mp4视频 浏览:953
小电影网址求推荐 浏览:768
win10电脑图标点不开怎么办 浏览:704
苹果7的网络信号不好怎么办 浏览:223
男同激情电影 浏览:62
国外的电影去哪里下载 浏览:991
送快递电影 浏览:301
联相电脑win7换win10 浏览:846
玄幻肉 浏览:991
pwd4.ocm 浏览:915
如何在linux安装tomcat 浏览:974
哪个网校的编程最好 浏览:717
塞巴斯蒂安1976南瓜影院 浏览:662
百分点大数据操作系统 浏览:292
系统开店经营流小说 浏览:789
数据差异很大用什么数代表 浏览:54
韩国有个说女仆的电影 浏览:41

友情链接