Skip to content

Latest commit

 

History

History
118 lines (98 loc) · 3.09 KB

File metadata and controls

118 lines (98 loc) · 3.09 KB

清理磁盘文件实例

在根目录下查看系统文件情况

sudo du -sh * | sort -nr
 
 
217M    boot
87G     data1
78M     root
50M     home
39M     etc
20G     var
16K     lost+found
15M     tmp
4.0K    srv
4.0K    mnt
4.0K    media
3.3M    run
3.2G    usr
3.1G    opt
0       sys
0       sbin
0       proc
0       lib64
0       lib
0       dev
0       bin

发现 var下面有20G ,而var是在vda1的,vda1快满了,从下面的命令显示来看已经占了72%,需要清理

[long.he@op1 /]$ df -lh
Filesystem      Size  Used Avail Use% Mounted on
devtmpfs         16G     0   16G   0% /dev
tmpfs            16G     0   16G   0% /dev/shm
tmpfs            16G  3.3M   16G   1% /run
tmpfs            16G     0   16G   0% /sys/fs/cgroup
/dev/vda1        40G   27G   11G  72% /
/dev/vdb1       394G   76G  301G  21% /data1
tmpfs           3.2G     0  3.2G   0% /run/user/1015
tmpfs           3.2G     0  3.2G   0% /run/user/1017
overlay         394G   76G  301G  21% /data1/docker_graph/overlay2/77fe73a69ce689e2ce624a9f4d3ce4919dd5cd8333f85acf3ae2ed0fb9b374f4/merged
shm              64M     0   64M   0% /data1/docker_graph/containers/71372a3f9b40fc4d51782c26cd75b315ae0488121bbaed117d70acca60aeac6d/shm
overlay         394G   76G  301G  21% /data1/docker_graph/overlay2/1267cbf2399d9289688c68ea27cc97794fe33f8f47182deef77636bfac377ca4/merged
shm              64M     0   64M   0% /data1/docker_graph/containers/2e65eb53f65ebf2b02de9daadfaea5764a038caa0df0d71921de3d6aa402100d/shm
overlay         394G   76G  301G  21% /data1/docker_graph/overlay2/e9ab35bbb8440b90fdf57b220d842d3548f8c65665df37e6f25abcc196282fc3/merged
shm              64M     0   64M   0% /data1/docker_graph/containers/4e519177825a920651a9b94a7061be7b5356d6f719306c39de54048563aa135a/shm
tmpfs           3.2G     0  3.2G   0% /run/user/0
tmpfs           3.2G     0  3.2G   0% /run/user/1003
tmpfs           3.2G     0  3.2G   0% /run/user/1014
[long.he@op1 /]$

 再到var下看一下,现在仅log就占了 9.4G,太大了,需要清理

[long.he@op1 var]$ sudo du -sh * | sort -nr
152M    cache
92K     tmp
64K     spool
24K     db
12K     kerberos
9.4G    log
8.8G    atlassian
8.0K    empty
4.0K    yp
4.0K    preserve
4.0K    opt
4.0K    nis
4.0K    local
4.0K    gopher
4.0K    games
4.0K    crash
4.0K    adm
1.7G    lib
0       run
0       mail
0       lock

在log下发现,以下四个地方占用的空间是最多的

4.0G    journal
3.7G    mariadb
2.2M    btmp-20200801
1.5G    messages

这里不建议直接删除文件,有可能会导致系统异常等问题,有风险,但可以将文件内容置空

echo "" > /var/log/messages

清空 /var/log/journal 文件

#journalctl 命令自动维护文件大小 只保留近一周的日志
 
journalctl --vacuum-time=1w
 
#只保留500MB的日志
 
journalctl --vacuum-size=500M

经过上面的一顿操作,磁盘占用下来了,从原来的 72%到了现在的58%

tmpfs            16G     0   16G   0% /sys/fs/cgroup
/dev/vda1        40G   22G   16G  58% /
/dev/vdb1       394G   77G  301G  21% /data1