c'est quoi ton scheduler i/o actuel pour ce disque là
# vérifier le scheduler
cat /sys/block/nvme0n1/queue/scheduler
j'ai pas touché je pense que c'est mq-deadline ou bfq de base
pour du nvme faut passer sur none ou noop le mq-deadline est pas opti pour ça du tout ça ajoute juste de la latence pour rien
ouais le nvme gère déjà son propre scheduling en interne donc un scheduler supplémentaire côté kernel c'est juste du overhead inutile ça ralentit plus qu'autre chose
ok je vais changer ça j'utilise quoi echo none > /sys/block/nvme0n1/queue/scheduler c'est ça pour le faire à chaud
c'est ça ou tu peux le mettre en persistant via grub config si tu veux que ça survive au reboot ou des udev rules pour l'appliquer auto
none c'est pour les disques qui ont leur propre intelligence genre nvme noop c'est un scheduler minimal qui fait le moins possible et délègue au device driver les deux sont bien pour nvme mais none est souvent préféré pour la simplicité
je viens de mettre none et là c'est le jour et la nuit les iops ont explosé comme attendu merci beaucoup la team
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
lefort-joseph
Membre depuis le 09/11/2018actif secouriste
hello j'ai une vm linux (centos 8) avec un disque nvme et mes perfs en random i/o sont claquées au sol genre 500 iops au lieu de plusieurs milliers attendues avec fio ou bonnie++ c'est vraiment pas normal pour du nvme