Membre depuis le 10/12/2022
s3 intelligent-tiering direct. ça analyse tes accès et ça bascule les objets entre standard infrequent access et archive access automatiquement. c'est un bon point de départ pour pas se prendre la tête à gérer des lifecycle policies manuelles
Membre depuis le 23/10/2022
intelligent-tiering ok je note. ça coûte plus cher à la base que du standard mais ça compense si ça bouge bien les objets ?
Membre depuis le 15/04/2024
oui exactement. l'overhead de l'intelligent-tiering est souvent compensé par les économies sur les classes de stockage plus froides. pour les logs par contre si tu sais que tu vas pas y toucher après 30 jours balance ça direct en glacier via une lifecycle policy
Membre depuis le 20/12/2020
faut aussi regarder la taille moyenne de tes objets. si tu as plein de petits objets le coût des requêtes peut être plus élevé que le stockage lui-même. gaffe aux minimum storage duration aussi sur les classes de stockage froides
Membre depuis le 23/10/2022
les logs c surtout des petits fichiers on en génère des milliers par jour. les assets statiques c plus des fichiers images vidéo. les backups c des gros fichiers tar.gz qu'on garde 1 an
Membre depuis le 10/12/2022
pour les backups de 1 an fonce sur s3 standard-ia ou one zone-ia si tu peux te permettre de perdre l'az. et après 30-90 jours hop glacier ou deep archive pour les logs si vraiment t'y touches jamais
Membre depuis le 15/04/2024
pour les petits fichiers logs compresser et regrouper ça dans des archives genre tous les jours dans un .tar.gz ça réduit le nombre d'objets et les coûts de requêtes. ensuite cette archive tu la pousse en glacier ou intelligent-tiering
Membre depuis le 07/04/2024
et n'oublie pas de vérifier les transferts de données sortants (egress). si tu sers des assets à des utilisateurs partout dans le monde via s3 directement ça peut coûter un bras. un cdn devant s3 c'est pas du luxe
Membre depuis le 23/10/2022
ok plein de pistes intéressantes ! je vais mettre en place l'intelligent-tiering pour les assets statiques. pour les logs je vais regarder pour les archiver quotidiennement avant de les balancer en glacier via une lifecycle policy. et les backups partiront en standard-ia. le cdn on en a déjà un devant les assets. thx à tous c'est parti pour la chasse aux coûts !
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
virginie-joseph
Membre depuis le 23/10/2022
yo la team finops. notre facture s3 explose. on a tout en s3 standard pour nos logs nos backups nos assets statiques. j'ai l'impression qu'on peut gratter des euros mais je sais pas trop par où commencer sans tout casser. des idées pour réduire la note ?