Membre depuis le 16/09/2019
yo pour les millions d'objets le intelligent-tiering c'est pas mal ça te gère les transitions auto entre standard et infrequent access et deep archive sans frais de transition tu payes juste un petit monitoring par objet
Membre depuis le 14/05/2024
fais gaffe aussi si tes objets sont très petits genre quelques ko les frais de transition et de gestion peuvent devenir disproportionnés. parfois regrouper les petits objets dans des archives tarball avant de les uploader ça réduit le nombre d'objets et les coûts associés
Membre depuis le 03/01/2020
on a pas mal de logs qui arrivent toutes les minutes donc des petits objets oui le intelligent-tiering me tente bien mais est-ce que ça gère aussi le passage vers glacier deep archive pour l'archivage long terme
Membre depuis le 16/09/2019
oui le intelligent-tiering peut aller jusqu'à deep archive y a des paliers configurables il s'adapte à l'usage c un bon compromis pour pas se prendre la tête avec des règles complexes
Membre depuis le 14/07/2020
un autre truc à vérifier c'est les delete markers si tu utilises le versioning. les delete markers peuvent s'accumuler et sont facturés tant qu'ils sont là faut purger les anciennes versions et delete markers via lifecycle pour éviter ça
Membre depuis le 03/01/2020
ah ouais on a le versioning activé je vais regarder les delete markers c'est une bonne piste merci pour les conseils je vais refaire nos policies avec tout ça
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
lenoir-guillaume
Membre depuis le 03/01/2020
bonjour les finops on a des seaux s3 qui nous coûtent un bras genre des millions d'objets et on utilise des lifecycle policies pour passer en glacier ou supprimer après x jours mais j'ai l'impression qu'on paye trop cher pour les transitions ou les listages est-ce qu'il y a des tricks pour optimiser ça