devopssec
n'est en aucun cas responsable du contenu généré par l'utilisateur. Le contenu posté
exprime les opinions de leur auteur seulement.
Les textes et messages publiés sont la propriété de ceux qui les postent.
je fais de mon mieux pour modérer les propos inappropriés qui pourraient être postés ici,
mais je me dégage de toute responsabilité sur ce que vous postez.
Vous demeurez le seul responsable de vos actes et de vos messages au regard de la loi.
Vous acceptez de ne pas utiliser le service pour poster ou lier vers un contenu qui est
diffamatoire, injurieux, haineux, menaçant, spams ou pourriels, étant de nature à offenser,
ayant un contenu réservé aux adultes ou répréhensible, contenant des renseignements
personnels des autres, risquant de violer les droits d'auteurs, encourageant une activité
illégale ou contraire à toutes les lois.
Le respect est la principale qualité de notre communauté. En conséquence, veillez à l'être envers
vos camarades ici présents, en particulier les nouveaux membres qui comme vous, cherchent
à découvrir l'univers DEVOPS, et n'ont pas toutes vos connaissances.
Tout manque de respect à l'encontre d'un membre, néophyte ou non, entraînera également des sanctions,
à savoir avertissements, bannissements voire poursuites selon la gravité de la situation.
devopssec
décline toute responsabilité concernant les rencontres réelles.
Commentaires
michel57
Membre depuis le 22/05/2024
salut. t'es sur quelle classe de stockage pour ce bucket staging ? si c'est du standard par défaut et que t'as beaucoup de petits objets ou beaucoup de requêtes ça monte vite. le coût n'est pas que le stockage c'est aussi les requêtes get/put
alphonse-legall
Membre depuis le 16/09/2024
ouais check aussi si y'a pas de data transfer out bizarre. genre des gens qui téléchargent tes dumps ou des applications qui répliquent des données vers d'autres régions sans que tu saches. active s3 access logs si c'est pas déjà fait et regarde les hits
manon29
Membre depuis le 15/05/2024
@user_key_2 c'est du standard S3 pour le staging. pour les dumps c'est de l'objet plus ou moins gros. @user_key_3 ah oui data transfer out j'y ai pas pensé. je vais activer les logs. mais ça m'étonnerait qu'on ait tant de téléchargements que ça
michel57
Membre depuis le 22/05/2024
passe tes dumps sur S3 Glacier Deep Archive si c'est des données que tu consultes rarement. le coût de stockage est ridicule. les assets de staging peuvent aller en S3 Standard-IA si c'est peu accédé. adapte la classe au cycle de vie de l'objet
gbonnin
Membre depuis le 04/10/2024
t'as pas de versioning activé par hasard avec des règles de cycle de vie qui gardent toutes les versions indéfiniment ? ça peut multiplier la taille du bucket sans que tu t'en rendes compte si t'as beaucoup de mises à jour
alphonse-legall
Membre depuis le 16/09/2024
ouais et des fois y'a des outils de backup qui copient tout un bucket pour un test et oublient de clean. regarde la taille totale de ton bucket dans la console et les nombres d'objets, ça donne une idée
manon29
Membre depuis le 15/05/2024
merde @user_key_4 t'as tapé dans le mille. le versioning est activé sans règles de cycle de vie. j'ai 10x la taille des objets réels. et en plus j'ai activé les access logs et je vois des requêtes get d'une ip externe toutes les 5min. on dirait un crawler ou un truc qui scrappe nos assets
michel57
Membre depuis le 22/05/2024
versioning sans lifecycle c'est un classique pour les grosses factures S3. configure des règles pour purger les vieilles versions. et pour l'IP externe, t'as un bucket public ou c'est un accès via des creds ? faut sécuriser ça vite fait si c'est pas voulu
manon29
Membre depuis le 15/05/2024
nan le bucket est privé j'ai des policies IAM. j'ai bloqué l'IP suspecte. je vais régler le versioning et passer certains objets en IA. merci pour l'aide les gars ! la prochaine fois je regarde d'abord les logs et les classes de stockage