From bab85243da50acd2760959081f31d6a2fad2824a Mon Sep 17 00:00:00 2001 From: Ryan Yin Date: Wed, 15 Nov 2023 14:58:02 +0800 Subject: [PATCH] feat: linux disk io --- ...\270\216\350\247\243\345\206\263\346\200\235\350\267\257.md" | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git "a/linux/Linux IO \346\200\247\350\203\275\351\227\256\351\242\230\344\270\216\350\247\243\345\206\263\346\200\235\350\267\257.md" "b/linux/Linux IO \346\200\247\350\203\275\351\227\256\351\242\230\344\270\216\350\247\243\345\206\263\346\200\235\350\267\257.md" index e9c17db3..125d8ae6 100644 --- "a/linux/Linux IO \346\200\247\350\203\275\351\227\256\351\242\230\344\270\216\350\247\243\345\206\263\346\200\235\350\267\257.md" +++ "b/linux/Linux IO \346\200\247\350\203\275\351\227\256\351\242\230\344\270\216\350\247\243\345\206\263\346\200\235\350\267\257.md" @@ -61,7 +61,7 @@ SSD 的性能受两方面的影响: 首先我们已经通过 node-exporter 对应的 grafana 监控面板,确定了当前磁盘 IO 利用率一直 100%、IOPS 与读写速率都很低,一开始读的 wait 显然非常高,能确认是卡在了读上面。 -进一步可用 `iotop` 定位到消耗 IO 的进程,然后用 `strace -f -p $pid -T -tt -e read` 与 `lsof -p $pid` 定位到导致 IO 高的文件。 +进一步可用 `iotop` 定位到消耗 IO 的进程,然后用 `strace -f -T -tt -e read -p $pid` 与 `lsof -p $pid` 定位到导致 IO 高的文件。 #### 4. 解决思路