2025.07.16 - [K8S/🔥 network study🔥] - [cilium] flannel 설치하기 [cilium] flannel 설치하기먼저 flannel 배포를 위한 네임스페이스를 생성합니다. kubectl create ns kube-flannel helm차트로 배포하는 가이드에는 다음과 같은 라벨을 추가하게 되어있습니다.네임스페이스에 라벨을 붙여 파드 시큐nuguni.tistory.com이전 글에서 flannel을 설치했다면 이번엔 cilium으로 마이그레이션을 해보겠습니다. 마이그레이션 공식 가이드를 참고해서 진행했습니다.https://docs.cilium.io/en/stable/installation/k8s-install-migration/ 시작하기 전kubelet은 파드를 생성할때 ..
CloudNet@ 가시다님이 진행하는 쿠버네티스 네트워크 스터디 KANS 3기 내용을 정리한 글입니다. aws에서는 eks의 로드밸런서를 구성하기 위해 aws loadbalancer controller를 제공합니다. 설치를 하지 않은 경우에는 NLB로 구성이 되지만 CLB(Classic Loadbalancer) 혹은 ALB(Application LoadBalancer)를 사용하고 싶은 경우에는 별도의 설치가 필요합니다. 설치하기AWS Loadbalancer Controller는 EKS에만 설치할 수 있는 컨트롤러는 아니지만 EKS에 설치하는 방법에 대해서만 소개하도록 하겠습니다. IAM 정책 다운로드 및 생성# 정책 다운로드curl -o iam-policy.json https://raw.githubu..
CloudNet@ 가시다님이 진행하는 쿠버네티스 네트워크 스터디 KANS 3기 내용을 정리한 글입니다. AWS의 EKS에는 AWS에서 제공하는 공식 CNI 플러그인이 있습니다. 바로 Amazon VPC CNI입니다. 이 플러그인은 EKS 클러스터에서 파드 네트워킹을 원활하게 지원하는 핵심 요소로, 이번 글에서는 Amazon VPC CNI의 주요 기능과 이를 EKS 환경에서 효과적으로 활용하는 방법을 살펴보겠습니다. https://github.com/aws/amazon-vpc-cni-k8s GitHub - aws/amazon-vpc-cni-k8s: Networking plugin repository for pod networking in Kubernetes using Elastic Network Inte..
CloudNet@ 가시다님이 진행하는 쿠버네티스 네트워크 스터디 KANS 3기 내용을 정리한 글입니다. EKS 란Amazon EKS(Amazon Elastic Kubernetes Service)는 AWS에서 제공하는 완전 관리형 Kubernetes 서비스입니다. Control Plane(Kubernetes API 서버, etcd 등)은 AWS에서 관리하므로, 사용자가 직접 설정하거나 유지보수할 필요가 없습니다. 따라서 사용자는 Control Plane을 직접 볼 수 없습니다. EKS는 IAM, VPC 등의 AWS 리소스와 통합하여 사용할 수 있으며, AWS Fargate를 통해 서버리스 방식으로 파드를 실행할 수 있는 기능도 제공합니다. EKS 생성하기다음과 같은 구조로 EKS를 생성해보도록 하겠습니..
CloudNet@ 가시다님이 진행하는 쿠버네티스 네트워크 스터디 KANS 3기 내용을 정리한 글입니다.2024.10.27 - [K8S/🔥 network study🔥] - [네떡스터디🔥kans] Cilium CNI 알아보기 - TCX Cilium은 Kubernetes와 같은 클라우드 네이티브 환경에서 네트워크 보안과 성능을 강화하기 위해 설계된 네트워크 및 보안 솔루션입니다. 최근 Cilium은 더 높은 네트워크 성능을 위해 netkit이라는 새로운 장치를 도입했는데요. 이번 글에서는 netkit이 어떤 방식으로 성능을 최적화하고, 기존 네트워크 장치와는 무엇이 다른지 살펴보겠습니다. 참고 영상 관련 문서 Netkit이란? Netkit은 Cilium이 Kubernetes 환경에서 Pod 간의 네트워크..
CloudNet@ 가시다님이 진행하는 쿠버네티스 네트워크 스터디 KANS 3기 내용을 정리한 글입니다. Kubernetes에서 서비스 로드밸런서를 구현하기 위해 iptables를 기본으로 사용한다는 것은 Kubernetes 공식 문서나 조금이라도 공부해본 사람이라면 익히 알고 있을 것입니다. 하지만 Cilium을 기본 CNI로 사용하는 환경에서는 kube-proxy를 사용하지 않을 수 있고, Kubernetes의 네트워크 스택에는 iptables 이전에 tc와 XDP라는 영역이 존재합니다. Cilium은 이 영역에 eBPF 코드를 심어 네트워크 트래픽을 제어합니다.그러나 tc 레이어에 많은 eBPF 코드를 로드하면서 네트워크 구조가 복잡해지고, 성능 저하 문제가 발생하기 시작했습니다. 이를 해결하기..
Kubernetes 컨트롤러를 개발할 때 Owns와 Watches를 설정하는 것은 매우 중요합니다. 이 두 개념은 컨트롤러가 특정 리소스를 어떻게 감시하고 반응할지를 결정하는데 영향을 줍니다. 이번 글에서는 Owns와 Watches의 차이점을 명확히 이해하고, 언제 어떤 것을 사용해야 하는지 살펴보겠습니다. Owns란Owns는 컨트롤러가 직접 생성한 리소스를 감시할 때 사용됩니다. 즉, 컨트롤러가 특정 리소스를 생성하고, 그 리소스에 변경이 생길 때 이를 감지하여 다시 조정(Reconcile)하도록 설정할 수 있습니다. 또한, Owns를 사용하면 자동으로 해당 리소스의 OwnerReference가 설정됩니다. 이를 통해 컨트롤러는 해당 리소스의 변경 사항을 감지하고 적절한 대응을 할 수 있습니다.예제 코..
네트워크 문제를 해결하다 보면, 패킷이 어디로 갔는지, 왜 도착하지 않는지 알기 어려운 상황에 종종 직면하게 됩니다. tcpdump나 ngrep 같은 기존 도구들은 패킷 추적에 유용하지만, 복잡한 네트워크 환경에서는 한계가 있습니다. 바로 이때 등장하는 것이 pwru입니다. pwru란 무엇인가?pwru는 "Packet, Where Are You?"의 약자로, eBPF(extended Berkeley Packet Filter) 기술을 사용해 Linux 커널에서 패킷을 추적하는 도구입니다. eBPF는 커널의 동작을 세밀하게 분석할 수 있도록 해주며, 이를 통해 패킷이 이동하는 경로를 정확히 추적할 수 있습니다. 특히 pwru는 Cilium 프로젝트의 일환으로 개발되었기 때문에, 복잡한 네트워크 환경을 갖춘 ..
네트워크 성능 최적화는 많은 엔지니어들에게 중요한 과제입니다. 특히, 고성능 네트워크 환경에서는 패킷 처리 속도를 높이고 지연 시간을 줄이는 것이 필수적입니다. 이 글에서는 XDP(eXpress Data Path)와 Bonding 인터페이스를 결합하여 네트워크 성능을 최대화하는 방법과 이를 실제로 설정하는 방법을 설명합니다. 이 글에서 다루지 않는것Bonding 설정의 기본: Bonding 인터페이스를 어떻게 설정하는지에 대한 기본적인 설명.XDP의 깊은 기술적 내용: XDP의 상세한 내부 동작 방식에 대한 설명. XDP란?XDP(eXpress Data Path)는 네트워크 패킷이 운영체제에 도달하기 전에 빠르게 처리할 수 있게 해주는 Linux 기능입니다. 이렇게 하면 네트워크 성능을 크게 높이고, 데..
CloudNet@ 가시다님이 진행하는 쿠버네티스 네트워크 스터디 KANS 3기 내용을 정리한 글입니다. Ambient Mesh란 ?기존의 sidecar방식의 메시는 sidecar를 설치하지 않은 파드의 경우 mesh로 넣을 수 없고, 파드마다 컨테이너를 추가해줘야했기 때문의 오버헤드가 컸습니다. Ambient Mesh에서는 모든 파드간 네트워크 통신은 Ztunnel이라는 경량화된 데이터 플레인 엔티티를 통해 처리됩니다. 이 Ztunnel은 각 노드에서 트래픽을 수집하고 제어하는 역할을 하며, 마이크로서비스 간의 통신을 간접적으로 처리합니다. 또한, 프록시 업그레이드나 배포 시의 오류 가능성도 줄어들게 됩니다. 직접 설치해보기cilium 설정 변경하기ambient mesh의 경우 istio-cni를 필요..
이전 글에서 maglev가 어떻게 동작하는지 대충(?) 살펴봤는데 이젠 그럼 실제로 어떤지도 살펴보려고 한다.이전글 읽어보기2024.10.03 - [K8S/cilium] - Maglev: Google의 로드밸런싱 알고리즘 테스트용 클러스터 만들기클러스터 만들기kind gateway api crd 설치kubectl apply -f https://raw.githubusercontent.com/kubernetes-sigs/gateway-api/v1.2.0/config/crd/standard/gateway.networking.k8s.io_gatewayclasses.yamlkubectl apply -f https://raw.githubusercontent.com/kubernetes-sigs/gateway-api/..
커스텀 컨트롤러를 개발할일이 가끔가다 생기는데 이번에 새로 커스텀 컨트롤러로 개발해보고싶은게 생겼습니다. 만들어보기 전에 컨트롤러 동작방식 대해 살펴보고 개발을 해볼까 합니다. 오늘은 컨트롤러의 동작방식을 이해하기 위한 글 입니다. 오퍼레이터 패턴이란오퍼레이터 패턴, 혹은 오퍼레이터는 시스템의 현재 상태를 원하는 상태로 유지하기 위한 자동화된 로직을 의미합니다. 즉, 현재 상태와 목표 상태가 있을 때, 이 둘을 자동으로 조정하여 일치시키는 것이 오퍼레이터의 역할입니다. 운영자가 수동으로 하던 작업을 코드로 자동화한 것이라고 생각하면 이해하기 쉽습니다.예를 들어, 데이터베이스의 백업과 복구 작업을 오퍼레이터를 통해 자동으로 처리할 수 있습니다. CNCF 프로젝트에서는 오퍼레이터 패턴에 대한 백서를 제공하며..
CloudNet@ 가시다님이 진행하는 쿠버네티스 네트워크 스터디 KANS 3기 내용을 정리한 글입니다. Sidecar Proxy의 역할Istio에서 사이드카 프록시는 서비스 간 트래픽을 관리하는 핵심 역할을 담당합니다. 각 서비스에 배포된 사이드카는 네트워크 트래픽을 가로채고, 이를 통해 트래픽 라우팅, 보안, 모니터링 기능을 제공합니다. Istio는 Envoy 프록시를 사용해 모든 서비스 간 트래픽을 제어하며, 이를 통해 암호화, 인증, 로깅 등을 통합 설정으로 쉽게 적용할 수 있습니다. 이런 통합 관리 덕분에 개발자는 네트워크 세부 사항을 신경 쓰지 않고 애플리케이션 코드에만 집중할 수 있습니다. Sidecar 아키텍처사이드카 아키텍처는 서비스 간 통신을 간편하게 만들어 줍니다. Istio의 제어..
CloudNet@ 가시다님이 진행하는 쿠버네티스 네트워크 스터디 KANS 3기 내용을 정리한 글입니다. 마이크로서비스 아키텍처가 널리 도입되면서 서비스 간 통신이 복잡해졌고, 이를 해결하기 위한 기술 중 하나가 바로 서비스 메쉬(Service Mesh)입니다. Istio는 대표적인 서비스 메쉬로, 서비스 간의 네트워크 트래픽을 관리하고 제어하는 역할을 합니다. 이번 글에서는 Istio의 다양한 역할에 대해 알아보겠습니다. Service Mesh란?Service Mesh는 마이크로서비스 간 통신을 제어하고 관리하는 레이어입니다. 마이크로서비스 아키텍처에서는 각 서비스가 독립적으로 배포되고 실행되기 때문에 서비스 간 통신이 매우 중요합니다. Service Mesh는 이런 통신을 제어하면서 보안, 로깅, 모..
멀티 클러스터 환경에서 다양하게 구성하는 경우가 많아서 이번에는 Cilium의 ClusterMesh를 이용하여 Mesh환경을 구성해보도록 하겠습니다. 클러스터 구성 전 주의사항설치 전 주의사항은 두개의 클러스터가 모두 같은 네트워크 모드를 사용해야합니다. 한쪽이 vxlan 캡슐화를 하는데 한쪽은 native routing을 사용하면 안됩니다.각 클러스터의 pod, service cidr은 겹치면 안됩니다. 모든 클러스터의 노드는 서로 IP 연결이 가능해야 하며, 이는 각 노드의 InternalIP를 사용하여 구성됩니다. 이 요구 사항은 일반적으로 클러스터 간 네트워크 피어링 또는 VPN 터널을 설정하여 충족됩니다.클러스터 간의 네트워크는 상호 통신을 허용해야 하며, 구체적인 포트는 방화벽 규칙(Fire..
Cilium을 사용하는 경우, Orbstack과 함께 하면 LoadBalancer(LB)가 자동으로 생성되는 편리함이 있습니다. 별도의 설정이 필요 없다는 점이 좋긴 하지만, 여러 개의 LB를 생성해서 테스트할 때는 불편할 수 있습니다. 그래서 이번 기회에 Kind로 클러스터를 생성하고 테스트하는 방법을 정리하려고 합니다. Cilium은 공식적으로 Kind에 설치하는 방법을 제공하고 있지만, 기능이 워낙 다양하다 보니 기본 설정 외에는 구체적인 가이드를 찾기 어렵습니다. 공식문서를 참고해서 클러스터를 생성해보고 싶다면 아래의 링크를 참고하면 됩니다.https://docs.cilium.io/en/stable/installation/kind/ 테스트 환경 구성 목표기본적으로 IPAM을 통해 대역을 설정하면..
CloudNet@ 가시다님이 진행하는 쿠버네티스 네트워크 스터디 KANS 3기 내용을 정리한 글입니다. CoreDNS쿠버네티스에서는 서비스를 생성하면 해당 서비스 명이 도메인 명이 되어 호출이 가능해진다. 이것을 가능하게 해주는것은 coredns로 쿠버네티스를 설치하면 kube-system에 가면 들어있는 도메인 서버이다. 플러그인도 다양하게 있어서 기본 설정 이외에도 플러그인으로 추가하여 기능을 확장할 수도 있습니다. https://coredns.io/ CoreDNS: DNS and Service Discovery coredns.io 기본 설정 이해하기처음에 쿠버네티스를 설정하면 다음과 같이 설정되어있습니다..:53 { # CoreDNS가..
CloudNet@ 가시다님이 진행하는 쿠버네티스 네트워크 스터디 KANS 3기 내용을 정리한 글입니다. 이전 글에서 Istio의 Gateway API를 다뤘다면, 이번에는 Cilium의 Gateway API에 대해 살펴보려 합니다. Gateway API에 대해 더 알고 싶으신 분들은 이전 글을 참고해 주세요. Cilium의 Gateway APICilium의 Gateway API는 다른 Ingress 컨트롤러들과는 크게 다른 부분이 Cilium에서는 네트워크 스택과 깊이 통합된다는 것입니다. 무슨말이냐면 보통의 Gateway API는 gateway 생성시 Deployment 형태로 설치되고 LoadBalancer를 통해 트래픽을 처리하지만, Cilium가 네트워크 관리 도구(CNI)이기 때문에 Gatewa..
CloudNet@ 가시다님이 진행하는 쿠버네티스 네트워크 스터디 KANS 3기 내용을 정리한 글입니다. Istio는 서비스 메쉬 내에서 트래픽을 제어하기 위한 다양한 기능들을 제공해왔습니다. 반면, Gateway API는 표준화된 인터페이스를 제공하는 것을 목표로 하다 보니, 아직 Istio가 제공하던 모든 기능을 담기에는 한계가 있는 것 같습니다. 이번 글에서는 Istio를 사용하여 Gateway API를 직접 설치해보고, 기존 Istio의 트래픽 제어 방식과 비교해보려고 합니다. Istio 와 Gateway API 비교 📦 리소스 별 비교Istio에서 Gateway와 VirtualService는 서비스 메쉬의 트래픽을 관리하는 핵심 리소스입니다. Gateway는 외부에서 들어오는 트래픽을 받는..