在根目录下查看系统文件情况
sudo du -sh * | sort -nr
217M boot
87G data1
78M root
50M home
39M etc
20G var
16K lost+found
15M tmp
4.0K srv
4.0K mnt
4.0K media
3.3M run
3.2G usr
3.1G opt
0 sys
0 sbin
0 proc
0 lib64
0 lib
0 dev
0 bin
发现 var下面有20G ,而var是在vda1的,vda1快满了,从下面的命令显示来看已经占了72%,需要清理
[long.he@op1 /]$ df -lh
Filesystem Size Used Avail Use% Mounted on
devtmpfs 16G 0 16G 0% /dev
tmpfs 16G 0 16G 0% /dev/shm
tmpfs 16G 3.3M 16G 1% /run
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/vda1 40G 27G 11G 72% /
/dev/vdb1 394G 76G 301G 21% /data1
tmpfs 3.2G 0 3.2G 0% /run/user/1015
tmpfs 3.2G 0 3.2G 0% /run/user/1017
overlay 394G 76G 301G 21% /data1/docker_graph/overlay2/77fe73a69ce689e2ce624a9f4d3ce4919dd5cd8333f85acf3ae2ed0fb9b374f4/merged
shm 64M 0 64M 0% /data1/docker_graph/containers/71372a3f9b40fc4d51782c26cd75b315ae0488121bbaed117d70acca60aeac6d/shm
overlay 394G 76G 301G 21% /data1/docker_graph/overlay2/1267cbf2399d9289688c68ea27cc97794fe33f8f47182deef77636bfac377ca4/merged
shm 64M 0 64M 0% /data1/docker_graph/containers/2e65eb53f65ebf2b02de9daadfaea5764a038caa0df0d71921de3d6aa402100d/shm
overlay 394G 76G 301G 21% /data1/docker_graph/overlay2/e9ab35bbb8440b90fdf57b220d842d3548f8c65665df37e6f25abcc196282fc3/merged
shm 64M 0 64M 0% /data1/docker_graph/containers/4e519177825a920651a9b94a7061be7b5356d6f719306c39de54048563aa135a/shm
tmpfs 3.2G 0 3.2G 0% /run/user/0
tmpfs 3.2G 0 3.2G 0% /run/user/1003
tmpfs 3.2G 0 3.2G 0% /run/user/1014
[long.he@op1 /]$
再到var下看一下,现在仅log就占了 9.4G,太大了,需要清理
[long.he@op1 var]$ sudo du -sh * | sort -nr
152M cache
92K tmp
64K spool
24K db
12K kerberos
9.4G log
8.8G atlassian
8.0K empty
4.0K yp
4.0K preserve
4.0K opt
4.0K nis
4.0K local
4.0K gopher
4.0K games
4.0K crash
4.0K adm
1.7G lib
0 run
0 mail
0 lock
在log下发现,以下四个地方占用的空间是最多的
4.0G journal
3.7G mariadb
2.2M btmp-20200801
1.5G messages
这里不建议直接删除文件,有可能会导致系统异常等问题,有风险,但可以将文件内容置空
echo "" > /var/log/messages
清空 /var/log/journal 文件
#journalctl 命令自动维护文件大小 只保留近一周的日志
journalctl --vacuum-time=1w
#只保留500MB的日志
journalctl --vacuum-size=500M
经过上面的一顿操作,磁盘占用下来了,从原来的 72%到了现在的58%:
tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/vda1 40G 22G 16G 58% /
/dev/vdb1 394G 77G 301G 21% /data1