salut. coredns est souvent le coupable effectivement. t'as combien de replicas de coredns et quelles sont les ressources (cpu/mem) allouées. si c sous-provisionné ça peut causer des lenteurs
t'as des custom cni genre calico ou cilium. des fois une mauvaise config de ces derniers peut interférer avec la résolution dns ou le routage vers coredns
t'as un nombre colossal de services ou de pods dans ton cluster. coredns peut avoir du mal à gérer une très grande quantité de données dans le cache ou le forward s'il est pas optimisé
fais un dig @
t'as des règles networkpolicy qui pourraient bloquer ou ralentir le trafic udp 53 entre tes pods et les pods coredns. ça arrive des fois une règle trop restrictive
regarde le coredns configmap. t'as pas des plugins un peu exotiques ou des forwards vers des dns externes qui mettent du temps à répondre
un cas que j'ai vu c'était des nodes qui manquaient de ressources cpu et donc le pod coredns était ralenti car il n'avait pas assez de cycles cpu pour traiter les requêtes rapidement
merci les gars ! après avoir creusé avec vos conseils c'était un mix. coredns était effectivement sous-provisionné en cpu j'ai augmenté les requests/limits. et aussi une de mes network policies était trop générale et créait des congestions sur le trafic dns. une fois ajusté les latences sont revenues à la normale. énorme coup de main
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
rossi-olivie
Membre depuis le 03/09/2023actif
yo la k8s team on a un gros souci de dns sur notre cluster. nos microservices ont des latences de dingue pour résoudre les noms de services internes genre "my-service.my-namespace.svc.cluster.local". ça prend des centaines de ms des fois. on est sur un cluster gke avec coredns default. j'ai déjà regardé les logs coredns mais rien de flagrant