Membre depuis le 12/12/2024
ah ça sent le I/O scheduler par défaut souvent c'est cfq ou deadline sur les anciens kernels. sur du nvme ou ssd modernes faut être en noop ou mq-deadline c'est plus adapté parce que le driver nvme gère déjà bien l'ordonnancement
Membre depuis le 23/06/2019
exactement cfq est bon pour les HDD mais sur les ssd/nvme il ajoute juste de l'overhead inutile. pour changer c'est dans /sys/block/sdX/queue/scheduler
Membre depuis le 10/07/2019
et vérifie aussi que ton fstab est bien en noatime ou relatime pour pas faire d'écritures inutiles juste pour l'accès aux fichiers ça bouffe des I/O
Membre depuis le 26/02/2019
et si t'as des gros load moyenne genre > nb de cpu cores c'est pas juste l'io scheduler qui est coupable. ptete ta ram est saturée et ça swappe à mort ou ton cpu est tellement occupé qu'il peut pas gérer les interruptions io correctement
Membre depuis le 30/01/2020
t'as check les logs du kernel dmesg voir si y'a des erreurs nvme ou des reset de contrôleur c'est rare mais ça arrive sur du matos défectueux
Membre depuis le 28/08/2023
d'acc merci pour les tips c'était bien le I/O scheduler qui était en cfq sur mes nvme. je l'ai mis en mq-deadline et déjà les latences sont beaucoup plus stables. y'avait aussi noatime pas configuré. je vais continuer d'investiguer la swap et le cpu thx all
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
olivier-lucie
Membre depuis le 28/08/2023
la team j'ai des perfs I/O cheloues sur mes serveurs pgsql et cassandra. d'un coup j'ai des pics de latence disque de plusieurs centaines de ms puis ça redevient normal. on est sur des instances avec du nvme local. ptete le kernel