Membre depuis le 28/08/2023
t'as essayé de passer ton format de fichier en Parquet ? le CSV c'est l'enfer pour la mémoire car Spark doit tout inférer
Membre depuis le 19/09/2024
le souci vient souvent du 'skewness' de tes données ou de fichiers trop gros non splittables (genre un gros .csv.gz). si t'utilises des `dynamicframes`, essaie de forcer un `repartition` ou utilise le paramètre `groupfiles` dans la source s3 pour équilibrer la charge sur les workers
# dans ton create_dynamic_frame.from_options
"groupFiles": "inPartition"
Membre depuis le 14/07/2019
le groupFiles avec un repartition a sauvé le job. les workers sont bien équilibrés mtn. thx !
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
lrichard
Membre depuis le 14/07/2019
yo j'ai un job Glue (Spark) qui traite un gros CSV sur S3 et ça crash systématiquement après 10 min. le log d'erreur est pas hyper clair sur quel worker explose
j'ai déjà mis des G.2X mais ça repousse juste le problème de quelques minutes...