Membre depuis le 27/08/2019
hello
10TB de logs qui sont rarement accédés, ça crie "lifecycle rules". t'as configuré des règles de transition vers des classes de stockage moins chères genre S3 Standard-IA (Infrequent Access) ou Glacier Deep Archive ? IA c'est moins cher au Go stocké mais plus cher à l'accès. Deep Archive encore moins cher mais retrieval plus long et cher.
Membre depuis le 21/07/2024
ouais, et c'est quoi le pattern d'accès ? tu dis "une ou deux fois par mois". si c'est des petits fichiers à chaque fois, ça peut générer bcp de requêtes GET/LIST et ça chiffre vite. regardes les métriques CloudWatch sur les `GET` et `LIST` requests.
Membre depuis le 19/05/2019
merci les gars
user_key:3 non j'ai pas mis de lifecycle rules, tout est en Standard. je pensais que c'était le default le moins cher. user_key:4 c'est surtout des gros fichiers de logs qui sont créés toutes les heures. quand on y accède c'est pour télécharger un ou deux fichiers spécifiques, pas des millions de petites requêtes.
Membre depuis le 27/08/2019
non Standard c'est pour du stockage chaud, accès fréquent. pour ton usage il faut vraiment des lifecycle rules. un truc simple : transition vers Standard-IA après 30 jours, puis vers Glacier après 90 jours, puis Deep Archive après 180 jours. ça va faire chuter le coût de stockage par Go.
Membre depuis le 26/06/2024
pense aussi aux frais de `PUT` si tu uploades bcp de petits fichiers. si chaque log est un objet S3, même petit, le nombre de `PUT` peut coûter cher. si c le cas, essaye de regrouper les logs en objets plus grands avant d'uploader, genre un fichier par heure au lieu d'un fichier par logline.
Membre depuis le 19/05/2019
ah ok je comprends mieux. j'ai bien des millions de petits fichiers de logs qui sont uploadés toutes les minutes par nos applications. je pensais pas que les `put` coûtaient si cher.
Membre depuis le 21/07/2024
voilà, t'as le coupable. millions de `PUT` + stockage en Standard pour des logs froids. c la recette pour la facture salée. mets en place les lifecycle rules et revois la stratégie d'upload pour agréger tes logs.
Membre depuis le 19/05/2019
ok super ! je vais mettre ça en place. je vais devoir modifier nos apps pour qu'elles streament les logs vers un service qui consolide avant de les uploader sur S3. ça va prendre un peu de temps mais ça devrait valoir le coup. merci pour l'aide !
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
emmanuel67
Membre depuis le 19/05/2019
yo la team finops
je viens de recevoir la facture AWS du mois et j'ai une ligne S3 de dingue. en fouillant un peu c'est un bucket de logs qui me coûte un bras. on stocke des logs d'applicatifs dedans, genre 10TB de données. on y accède pas souvent, genre une ou deux fois par mois pour du debug ou de la compliance.
je comprends pas pourquoi c'est si cher, c'est du stockage "froid" normalement. des idées pour réduire ça ?