l'intelligent-tiering est pas magique surtout sur des patterns d'accès un peu chaotiques. ça coûte aussi un peu en monitoring et transition. souvent, des lifecycle policies bien pensées sont plus efficaces si tu connais tes patterns d'accès. genre si les backups de plus de X jours sont jamais accédés, pousse-les direct en glacier ou deep archive
ok donc faudrait que je crée des préfixes genre "backups-prod/mensuel/" et "backups-prod/hebdo/" pour appliquer des règles différentes ? et virer intelligent-tiering sur ces préfixes ?
exactement. intelligent-tiering c'est bien pour des cas où t'as aucune idée du pattern. mais si tu peux taguer tes objets ou les préfixer, des lifecycle policies te donneront plus de contrôle et seront plus prévisibles côté coûts. pense aussi aux delete policies après un certain temps si tu n'as plus besoin des backups du tout
d'acc je vois l'idée. par contre pour les petits objets (<128kb) l'intelligent-tiering te fait payer des frais de monitoring par objet qui peuvent s'additionner vite. si tu as plein de petits fichiers ça peut être ça qui fait grimper la facture
ouaip c'est ça le piège avec intelligent-tiering. les petits objets sont monitorés individuellement et ça peut coûter plus cher que de les laisser en standard ou de les archiver directement. tu as beaucoup de petits fichiers dans ton bucket ? genre moins de 128ko
hum oui pas mal de fichiers de config et des logs compressées qui sont souvent petits. ça doit être une partie du problème alors. je vais revoir ma stratégie en groupant les petits fichiers si possible ou en les poussant directement en infrequent access avec une policy
une autre idée en plus des lifecycle policies c'est de regarder les métriques s3 de ton bucket. les StorageLens ou même les s3 inventory reports peuvent te donner une vue précise de la répartition des tailles d'objets et de l'accès par tier. ça aide à affiner tes règles et voir si intelligent-tiering est vraiment efficace
bien vu le StorageLens je l'ai pas encore exploré en détail. je vais me pencher là-dessus pour avoir des stats plus fines. ça m'aidera à mieux cibler mes policies. merci à tous pour les super conseils finops !
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
gay-monique
Membre depuis le 16/04/2020actif
yop les gars on essaie de réduire nos coûts s3 sur un bucket qui stocke des backups et des archives. on a activé intelligent-tiering mais les factures sont toujours un peu salées. j'ai l'impression que ça bouge pas tant que ça vers infrequent access ou archive. y a une façon de vraiment forcer le passage ou d'optimiser ça ?
le bucket contient des objets de tailles variées, certains sont accédés souvent au début puis plus jamais, d'autres sont accédés de temps en temps