salut. glacier deep archive c'est super cher si tu y touches. même sans restore direct, des fois les objets sont supprimés ou déplacés avant la fin de la période minimale de stockage de 180 jours. ça te coûte une "early deletion fee" équivalente à payer les jours restants.
ouaip user2 a raison. vérifie tes règles de cycle de vie s3. si une règle déplace un objet de GD à standard ou le supprime avant 180 jours, c'est payant. même si c'est pas un restore, c'est considéré comme un accès anticipé.
aussi le nombre de requêtes. les PUT/COPY/POST vers glacier deep archive sont plus chers que vers glacier standard ou autres. si t'as une appli qui re-upload constamment des objets, ça peut vite monter en requêtes.
ok je vais re-checker toutes les politiques de cycle de vie en détail. j'avais pas pensé aux early deletion fees. les PUT sont faits via les règles de transition de s3 standard vers gd, donc c'est pas des PUT directs par l'appli. mais je vais voir si la fréquence des transitions a changé.
un autre truc qui peut faire mal c'est les "retrieval fees". même pour des small objects. si tu listes le contenu d'un bucket gd ou que tu fais un inventaire détaillé, ça peut entraîner des petites requêtes de métadonnées qui s'accumulent et sont facturées.
exact les retrieval requests sont sournoises. et si par malheur vous avez un service qui fait un check régulièrement de l'intégrité ou des index sur des objets archivés... ça peut être la raison.
et n'oublie pas les data transfer out si jamais tu as des outils qui répliquent des objets gd vers une autre région ou un on-prem. même si c'est archivé la sortie de données est facturée au prix fort.
pour diagnostiquer, regarde le aws cost explorer et filtre par type d'usage. tu peux voir exactement quels sont les frais qui ont augmenté. stockage, requêtes (put, get, select), data transfer out, ou early deletion fees. ça te donnera la catégorie exacte qui a pété.
bon c'était bien un mix. on avait une règle de cycle de vie qui supprimait des vieux backups avant les 180 jours pour "nettoyer" plus tôt, et les early deletion fees ont explosé. et un process de vérification d'intégrité qui faisait des small object retrieval fees silencieusement. un grand merci les gars j'ai de quoi faire le ménage et sensibiliser la team !
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
fmarie
Membre depuis le 23/02/2019actif
yo la team finops. on utilise s3 glacier deep archive pour des backups long terme avec des politiques de cycle de vie automatiques depuis s3 standard. mais depuis 2 mois on a des factures avec des spikes monstrueux pour s3 gd. genre on parle de +500% alors que y'a pas eu de modif sur les politiques. personne n'a fait de restores manuels. c'est quoi le truc obscur qui coûte cher en gd ?