Sujet :

finops comment réduire les coûts s3 sur un bucket d'archives

RÉSOLU

Liste des sujets Répondre Créer un sujet

kpineau

Membre depuis le 09/06/2024

salut la team finops. on a un bucket s3 qui contient des archives logs et backups de plusieurs années. ça nous coûte un bras chaque mois. les accès sont ultra rares mais on doit les garder pendant 7 ans pour la conformité. on est sur s3 standard storage. quelles sont les meilleures pratiques pour réduire les coûts sans tout casser ? j'ai pensé à glacier mais on a des milliards de petits objets ça risque d'être galère

adelaide-morvan

Membre depuis le 22/06/2024

hello si c'est des archives froides qui bougent pas go s3 intelligent-tiering. s3 va bouger automatiquement tes objets entre standard infrequent access et glacier deep archive selon les patterns d'accès. ça simplifie la gestion et ça optimise bien les coûts. juste le coût de monitoring du tiering à prendre en compte

lambert-suzanne

Membre depuis le 25/04/2024

si tes objets sont vraiment petits et que tu en as des milliards regarde l'option de les compresser et les archiver ensemble dans des plus gros fichiers type tar.gz. ça réduit le nombre d'objets et donc les coûts de listage et metadata. ensuite tu peux les mettre sur glacier deep archive direct. l'intelligent tiering est super mais si les objets sont trop petits ça coûte cher en transitions

kpineau

Membre depuis le 09/06/2024

ouais j'avais pas pensé au regroupement des petits objets. intelligent-tiering est intéressant mais avec nos millions de petits fichiers ça risque de coûter cher en opérations de transition. je vais partir sur un script de regroupement des fichiers en archives plus grosses et ensuite direction glacier deep archive. merci pour les conseils

Répondre

vous devez être connecté pour poster un message !

Rejoindre la communauté

Recevoir les derniers articles gratuitement en créant un compte !

S'inscrire