中文字幕亚洲第一精品|精品国产免费一区二区|久久婷婷五月六月综合版|中文字幕熟妇久久久人妻|久久综合精品国产一区无码|国产成人精品永久免费视频|午夜亚洲国产精品理论片a级|久久精品一区二区三区无码护土

 訪問手機(jī)版  

Linux常用命令|Linux培訓(xùn)學(xué)習(xí)|考試認(rèn)證|工資待遇與招聘,認(rèn)準(zhǔn)超級網(wǎng)工!

招聘|合作 登陸|注冊

網(wǎng)絡(luò)工程師培訓(xùn)

當(dāng)前位置:網(wǎng)絡(luò)工程師 > 技術(shù)課程 > linux > 熱點關(guān)注 > linux常用命令

Linux命令(一)

時間:2019-09-16

linux 關(guān)機(jī)命令_linux命令_linux vi命令

1.clear清屏

2.vi

vi xxx.log

i-->edit

esc-->command

shift+:-->end 輸入 wq

3.cat xxx.log 查看

---------------------------

1.pwd 查看當(dāng)前光標(biāo)所在的path

2.家目錄

/boot

swap

/ 根目錄 起始位置

家目錄: 用戶所在的默認(rèn)的目錄

/root 超級admin

/home/jepson

/home/doudou

/home/xxxx

3.cd 切換

cd path 當(dāng)前的路徑切換到你指定的path

cd /root

cd 切換當(dāng)前用戶的家目錄

cd ~ 切換當(dāng)前用戶的家目錄

cd - 切換到上一次目錄

cd ../ 切換到上一層目錄

../../

4.ls

查看當(dāng)前目錄下的文件和文件夾的名稱

ls -l ==> ll 查看當(dāng)前目錄下的文件和文件夾的詳細(xì)信息

ls -l -a ==》查看隱藏文件

隱藏文件:文件或文件夾名稱以.開頭

ls -l -h 文件的大小(不是文件夾)

ls -l -rt 按時間排序

5.文件夾

mkdir 文件夾名稱 1層

mkdir -p 1/2/3 -p級聯(lián)創(chuàng)建

mkdir 4 5 6 同一層創(chuàng)建3個目錄

linux命令_linux 關(guān)機(jī)命令_linux vi命令

6.路徑

絕對目錄 /xxx/xxx

相對路徑 參加pwd當(dāng)前路徑

7.文件

vi jepson.log

touch ruoze.log

文件 文件夾 切換 查看

8.移動 只有1份

mv xxx yyyy

9.復(fù)制 多份

cp xxx yyyy 文件

cp -r 4 1 文件夾

10.查看文件內(nèi)容

cat xxx.log 一下子將內(nèi)容刷新出來

more xxx.log 一頁頁按 【空格鍵】 翻下;【B】上

按 ctrl+z終止

less xxx.log 不多

11. > 箭頭

> 覆蓋

>> 追加

[root@hadoop000 ruozedata]# cat jepson.log >>ruoze.log

[root@hadoop000 ruozedata]# cat ruoze.log

4

5

6

1

2

3

[root@hadoop000 ruozedata]# cat jepson.log >ruoze.log

[root@hadoop000 ruozedata]# cat ruoze.log

1

2

3

[root@hadoop000 ruozedata]#

12.打印

[root@hadoop000 ruozedata]# echo "summer"

[root@hadoop000 ruozedata]# echo "summer" > jepson.log

linux 關(guān)機(jī)命令_linux命令_linux vi命令

master: starting namenode, logging to /root/soft/apache/hadoop/hadoop-2.6.0/logs/hadoop-root-namenode-master.out。slave2: starting datanode,logging to /root/soft/apache/hadoop/hadoop-2.6.0/logs/hadoop-root-datanode-slave2.out。slave1: starting datanodelinux命令,logging to /root/soft/apache/hadoop/hadoop-2.6.0/logs/hadoop-root-datanode-slave1.out。