Membre depuis le 28/02/2020
80% iowait c clairement l'i/o. t'as vérifié que les pilotes virtio-blk ou virtio-scsi sont bien chargés et que ta vm voit bien des périphériques virtio ? des fois ça tombe sur des disques émulés génériques et c la cata
Membre depuis le 06/05/2024
exacte noop ou mq-deadline pour les nvme c'est ce qu'il faut. aussi vérifie ton io_submit_mode pour tes montages si t'es en async ou sync et si t'as des options de montage style barrier=0
Membre depuis le 10/06/2024
tu peux aussi lancer un fio simple pour benchmarker le disque brut sans la charge db pour isoler le pb. des fois c'est juste une config d'hyperviseur pour la taille des blocs ou le cache
Membre depuis le 07/09/2019
putain c'était le scheduler i/o, il était en cfq sur les disques postgre. j'ai mis noop et j'ai retrouvé mes iops. gros merci à tous j'aurais cherché longtemps !
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
sabine-poirier
Membre depuis le 07/09/2019
salut tout le monde on a migré une grosse vm (postgresql) sur un nouvel hyperviseur et les perfs i/o sont claquées au sol. avant c'était du 100k iops là on galère à 10k. la config stockage est la même pour nous (nvme locaux en raid). j'ai un
iostatqui est tout rouge