problème de performance i/o sur vm linux avec disques nvme

Posté par claude06 le 19/02/2026
RÉSOLU

claude06

Membre depuis le 22/05/2024

yo la tech team j'ai des vms linux sur des hosts avec du nvme et je pige pas les perfs i/o sont nulles par rapport à ce que ça devrait être. genre un simple dd sur un fichier de 1go prend 30 secondes alors que sur d'autres env avec du sata c'est 5s. j'ai checké iostat et je vois des gros wait mais pas de saturation cpu ou ram

# Exemple d'iostat
avg-cpu:  %user   %nice %system %iowait  %steal   %idle
          0.26    0.00    0.28   98.96    0.00    0.50

Device             tps    kB_read/s    kB_wrtn/s    kB_read    kB_wrtn
nvme0n1           2.00        8.00         0.00        8192          0

Commentaires

lelievre-dorothee

Membre depuis le 21/07/2024

salut t'es en virtualisation ou bare metal ? si c'est des vms check la config du storage controller de l'hyperviseur. des fois le nvme est pas passé en direct ou mal configuré et ça utilise un layer d'émulation tout pourri. genre virtio-scsi au lieu de virtio-blk pour nvme des fois ça change tout

vleduc

Membre depuis le 06/01/2025

et le scheduler i/o de ton kernel linux ? par défaut c souvent mq-deadline maintenant mais avant c'était cfq ou deadline. essaye de forcer noop si t'as du nvme c souvent mieux comme le drive fait déjà son propre scheduling.

echo noop > /sys/block/nvme0n1/queue/scheduler

claude06

Membre depuis le 22/05/2024

c'est des vms oui sur esxi. le contrôleur est en paravirtual scsi mais je pensais que c'était ok pour du nvme. je vais voir si je peux switcher à un truc plus direct. pour le scheduler j'avais pas pensé à ça je vais essayer noop

lelievre-dorothee

Membre depuis le 21/07/2024

attention esxi avec nvme c'est tricky. parfois faut passer en pvscsi avec des queues plus profondes ou carrément passer en nvme pass-through si ton hyperviseur le supporte et que tu as un besoin extrême en iops. sinon check l'alignement des partitions aussi ça peut faire mal si c'est pas aligné sur 4k

vleduc

Membre depuis le 06/01/2025

et le firmware de ton nvme sur l'host ? des fois y'a des bugs de perf avec certaines versions. c'est rare mais ça arrive. ou un souci de drivers nvme dans la vm elle-même si t'as un kernel un peu ancien. faut un kernel récent pour tirer parti des nvme

claude06

Membre depuis le 22/05/2024

ok le scheduler noop a un peu aidé mais pas de ouf. par contre j'ai parlé aux admins esxi et il y avait un souci sur le datastore nvme les queues étaient pas bien tunées. ils ont ajusté et là c'est le jour et la nuit. mon dd prend 2s maintenant. merci pour les pistes c'était bien l'infra sous-jacente

lelievre-dorothee

Membre depuis le 21/07/2024

top ! content que ça se règle. les perfs nvme c souvent les couches en dessous qui merdouillent plus que le kernel linux lui-même si la config de base est bonne

claude06

Membre depuis le 22/05/2024

clairement. faut toujours regarder la stack complète. thx !

Laisser une réponse

Vous devez être connecté pour poster un message !

Rejoindre la communauté

Recevoir les derniers articles gratuitement en créant un compte !

S'inscrire