Membre depuis le 21/07/2024
salut la team j'ai un souci bizarre avec le dns dans mon cluster k8s. certains de mes pods dans le namespace a arrivent pas à résoudre les hostnames de services dans le namespace b. j'ai bien un serviceaccount avec les bonnes permissions et les network policies permettent le trafic. le coredns a l'air ok partout. je sèche un peu
# exemple de pod qui plante
kubectl exec -it my-pod-in-ns-a -n ns-a -- nslookup my-service-in-ns-b.ns-b.svc.cluster.local
;; connection timed out; no servers could be reached
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
Commentaires
xguillaume
Membre depuis le 18/11/2024
yo t'as vérifié les labels et sélecteurs de ton service dans ns-b qu'ils pointent bien sur les bons pods ? des fois c'est un truc con genre un label qui manque et le service a pas d'endpoints
renee49
Membre depuis le 21/07/2024
ouaip j'ai double check les labels tout est bon et le service a bien des endpoints actifs quand je fais un kubectl get endpoints. le problème c'est vraiment la résolution dns pas l'accès au service une fois résolu
xguillaume
Membre depuis le 18/11/2024
hmm ok regarde les logs de coredns voir s'il y a des erreurs quand ton pod essaie de résoudre. des fois une config custom dans un coredns configmap peut foutre la merde ou un souci de réplication
renee49
Membre depuis le 21/07/2024
j'ai enfin trouvé la merde. en fait y avait une option ptn de dnspolicy dans mon pod spec qui était réglée sur none et du coup ça bypassait le coredns du cluster. fallait le mettre sur clusterfirst. j'ai galéré pour ça. thx quand même pour le coup de main