yo. ceph c'est costaud mais ça demande de bien tuner. vous avez regardé la version de
ceph-osd ? et le réglage de bluestore_throttle_bytes ou bluestore_throttle_ops ? des fois des valeurs par défaut trop conservatrices peuvent brider les perf des nvme. aussi, le scheduler i/o du kernel sur les nœuds ? noop ou mq-deadline sont souvent mieux pour les nvme que cfq
ok super pistes ! le scheduler i/o je suis quasi sûr qu'on est pas en
noop ou mq-deadline sur tous les nœuds, c'est une piste solide. je vais vérifier ça et regarder les tunings bluestore. ceph est en pacific. merci !
c'était bien le scheduler ! on était en
cfq sur certains nœuds sans qu'on s'en aperçoive. passé en noop et les latences ont fondu. thx encore !
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
auguste49
Membre depuis le 30/09/2019actif
salut la team, on a des soucis de latence i/o de dingue sur nos pods k8s qui utilisent du storageclass ceph. c'est surtout quand y a des gros reads/writes. les disques des nœuds ceph sont des nvme flambant neufs pourtant. on voit des
de ouf sur les nœuds qui hébergent les pods. on tourne sous ubuntu 20.04 avec un kernel 5.4