hmm ça sent le driver ou la config par défaut. t'as vérifié que le scheduler i/o est bien réglé sur noop ou mq-deadline ? cfq ou bfq c'est pas bon pour les ssds. regarde /sys/block/sdx/queue/scheduler
et le type de contrôleur disque que vmware présente à la vm ? virtio scsi ? lsi logic sas ? virtio scsi c'est souvent le best en terme de perfs faut s'assurer que le module kernel est bien chargé
ouais et l'alignement des partitions ? si tes partitions sont pas alignées avec la taille des blocs du storage ça peut dégrader grave les perfs. tu peux vérifier ça avec fdisk -l ou parted
ok alors pour le scheduler c'était cfq, j'ai mis mq-deadline. pour le contrôleur c'est lsi logic sas. j'ai pas virtio scsi de configuré. et les partitions sont alignées j'ai vérifié
lsi logic sas c'est pas ouf pour les perfs. si tu peux, change pour un vmware paravirtual scsi ou virtio scsi. ça fait une grosse diff. mais faut gaffer avec le boot volume si tu changes le contrôleur sur une vm existante
oui si tu peux pas changer de contrôleur regarde si t'as le module vmware_pvscsi chargé et actif. des fois il est là mais pas utilisé. et augmente le queue depth dans la config disque si possible
bingo ! c'était bien le contrôleur. j'ai switché sur vmware paravirtual scsi après avoir ajouté le driver au initramfs. les perfs sont remontées à 300 mo/s direct. merci les gars pour l'aide précieuse !
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
bruneau-claude
Membre depuis le 18/09/2019actif
yo on vient de provisionner une nouvelle vm sur vmware pour un service critique et les perfs i/o sont claquées au sol. genre 20 mo/s en lecture séquentielle alors que ça devrait être au moins 200 mo/s. la vm est sur un datastore ssd, pas de contention sur le san. d'autres vms sur le même datastore ont des perfs normales. le noyau linux est un 5.4. c'est quoi le problème selon vous ?