Membre depuis le 22/05/2024
yo la tech team j'ai des vms linux sur des hosts avec du nvme et je pige pas les perfs i/o sont nulles par rapport à ce que ça devrait être. genre un simple dd sur un fichier de 1go prend 30 secondes alors que sur d'autres env avec du sata c'est 5s. j'ai checké iostat et je vois des gros wait mais pas de saturation cpu ou ram
# Exemple d'iostat
avg-cpu: %user %nice %system %iowait %steal %idle
0.26 0.00 0.28 98.96 0.00 0.50
Device tps kB_read/s kB_wrtn/s kB_read kB_wrtn
nvme0n1 2.00 8.00 0.00 8192 0
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
Commentaires
lelievre-dorothee
Membre depuis le 21/07/2024
salut t'es en virtualisation ou bare metal ? si c'est des vms check la config du storage controller de l'hyperviseur. des fois le nvme est pas passé en direct ou mal configuré et ça utilise un layer d'émulation tout pourri. genre virtio-scsi au lieu de virtio-blk pour nvme des fois ça change tout
vleduc
Membre depuis le 06/01/2025
et le scheduler i/o de ton kernel linux ? par défaut c souvent mq-deadline maintenant mais avant c'était cfq ou deadline. essaye de forcer noop si t'as du nvme c souvent mieux comme le drive fait déjà son propre scheduling.
claude06
Membre depuis le 22/05/2024
c'est des vms oui sur esxi. le contrôleur est en paravirtual scsi mais je pensais que c'était ok pour du nvme. je vais voir si je peux switcher à un truc plus direct. pour le scheduler j'avais pas pensé à ça je vais essayer noop
lelievre-dorothee
Membre depuis le 21/07/2024
attention esxi avec nvme c'est tricky. parfois faut passer en pvscsi avec des queues plus profondes ou carrément passer en nvme pass-through si ton hyperviseur le supporte et que tu as un besoin extrême en iops. sinon check l'alignement des partitions aussi ça peut faire mal si c'est pas aligné sur 4k
vleduc
Membre depuis le 06/01/2025
et le firmware de ton nvme sur l'host ? des fois y'a des bugs de perf avec certaines versions. c'est rare mais ça arrive. ou un souci de drivers nvme dans la vm elle-même si t'as un kernel un peu ancien. faut un kernel récent pour tirer parti des nvme
claude06
Membre depuis le 22/05/2024
ok le scheduler noop a un peu aidé mais pas de ouf. par contre j'ai parlé aux admins esxi et il y avait un souci sur le datastore nvme les queues étaient pas bien tunées. ils ont ajusté et là c'est le jour et la nuit. mon dd prend 2s maintenant. merci pour les pistes c'était bien l'infra sous-jacente
lelievre-dorothee
Membre depuis le 21/07/2024
top ! content que ça se règle. les perfs nvme c souvent les couches en dessous qui merdouillent plus que le kernel linux lui-même si la config de base est bonne
claude06
Membre depuis le 22/05/2024
clairement. faut toujours regarder la stack complète. thx !