pour ça t'as les s3 inventory reports. ça te donne une liste de tous les objets, leur taille, et date de dernière modif. une fois que t'as ça, tu peux définir des Lifecycle Rules sur ton bucket pour faire passer automatiquement les objets de plus de X jours/mois en Glacier ou les supprimer carrément. ultra efficace
pense aussi à activer S3 Intelligent-Tiering sur les buckets où c un peu le bordel. s3 gère tout seul le passage entre standard, ia et archive access en fonction des patterns d'accès. ça réduit pas mal les coûts sans rien faire
si t'as des buckets vraiment actifs avec beaucoup d'objets et que t'as besoin de plus de granularité, tu peux t'amuser à faire une lambda qui se déclenche sur un schedule, scanne ton inventory et supprime ou déplace les objets qui correspondent à tes critères. un peu plus de dev mais très puissant
check aussi si la versioning est activée sur tes buckets et si tu gardes pas toutes les anciennes versions d'objets. ça peut faire monter la note aussi. les lifecycle rules peuvent aussi cibler les versions non courantes
ok super je vais commencer par les inventory reports et les lifecycle rules, ça a l'air d'être le plus simple et le plus direct. j'avais zappé l'intelligent-tiering aussi, bonne idée. thx pour les tips !
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
constance96
Membre depuis le 15/05/2019actif
yo les finops, ma facture S3 elle explose et je suis quasi sûr qu'on a plein de vieux objets qui traînent dans nos buckets dev et staging. y'a moyen de faire un grand ménage ? genre trouver les objets pas touchés depuis X mois et les virer ou les archiver pour pas cher ?