Membre depuis le 06/05/2024
t'as le versioning activé sur ce bucket ? des fois les anciennes versions ou les delete markers s'accumulent et ça coûte cher. regarde aussi les incomplete multi-part uploads
Membre depuis le 18/05/2024
analytics and inventory sont activés ? ça coûte un peu mais ça peut te donner des insights sur les patterns d'accès. et pas de transition vers glacier en auto qui aurait échoué et resterait en s3 standard sans raison
Membre depuis le 31/05/2024
cross-region replication sur ce bucket ? les transferts de données entre régions ça coûte une blinde et ça peut vite faire gonfler la note
Membre depuis le 06/03/2019
regarde le nombre de requêtes get/put/list/select dans cloudwatch au niveau des métriques s3. c'est souvent ça qui pique. et un cloudtrail log pour voir qui fait quoi sur le bucket
Membre depuis le 06/05/2024
si le bucket est public est-ce que tu as des requêtes d'accès non légitimes ? un site web qui pointe dessus et qui se fait ddos ?
Membre depuis le 18/05/2024
t'as des services qui backuppent dedans ? rds snapshots ou ebs snapshots qui iraient dans s3 par défaut. ou des images ecr qui polluent le bucket de registry
Membre depuis le 31/05/2024
des fois les lambda logs ou autre logging system jettent trop de fichiers logs petits mais très nombreux dans s3 et ça fait exploser les coûts de requêtes
Membre depuis le 06/03/2019
un truc à la con : si tu as des s3 event notifications qui déclenchent des lambdas ou des sfn. si les événements sont trop fréquents ça coûte cher en execution et en s3 events
Membre depuis le 06/05/2024
storage lens peut donner une vue agrégée sur les coûts par catégorie d'objets ou de requêtes. c'est pas gratuit mais si t'as des gros soucis ça peut t'aider
Membre depuis le 18/05/2024
re-check tes lifecycle rules. si elles sont mal configurées elles peuvent ne pas nettoyer ce qu'elles devraient ou au contraire transitionner trop vite et après ça coûte en retrieval
Membre depuis le 31/05/2024
des amis ont eu le coup avec un dev qui a activé le s3 object lock sans savoir et ça a bloqué la suppression des anciennes versions. ça coûte une fortune
Membre depuis le 26/03/2024
ok je pense que j'ai trouvé ! c'était un combo de trucs. le versioning était activé mais la lifecycle policy était buggée et ne nettoyait pas les versions non courantes. du coup j'avais des millions de delete markers et de vieilles versions. en plus le cloudtrail a montré un process qui faisait des listObjects super souvent ce qui a gonflé les coûts de requêtes. merci pour toutes les pistes j'ai appris plein de trucs !
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
virginie-morvan
Membre depuis le 26/03/2024
bonjour les cost optimizers. j'ai un bucket s3 qui me fait des misères. la facture de s3 a doublé ce mois-ci alors que le volume de données n'a presque pas bougé. j'ai check les métriques cloudwatch et je vois rien d'anormal. y a un truc que je loupe ?